Estudio de caso Amazon Rekognition

Por: Henry Romero

Reconocimiento Facial de Amazon

¿Qué se sabe / imagina colectivamente sobre su estudio de caso / objeto?

Según la información divulgada por la propia compañía la tecnología de reconocimiento facial Amazon Rekognition permite identificar objetos, personas, texto, escenas, actividades en imágenes y videos e identificar contenido inapropiado, con lo que es posible analizar y comparar rostros con alta precisión para diversos usos, entre los que se destaca la verificación de usuarios, conteo de personas y la seguridad pública.

¿Qué papel juega en los imaginarios contemporáneos? ¿En fantasías (o pesadillas)? ¿Qué tipo de narrativas nacionales lo utilizan? ¿Cómo aparece en el entretenimiento? ¿Qué otras grandes narrativas, historias y asociaciones fuertes lo involucran?

En los imaginarios contemporáneos el uso de esta tecnología se refleja como una herramienta de utilidad práctica muy potente que muestra los desarrollos en inteligencia artificial y la detección de rostros, objetos o situaciones que al ser valorados de acuerdo a determinados fines pueden direccionar la acción e intervenir ya sea en ámbitos privados o públicos.

La prueba de Amazon Rekognition por parte de la Unión Americana de Libertades Civiles para denunciar los riesgos y el sesgo racial de este software, desencadenó una narrativa contraria a la oficial, señalando el peligro de las fallas cuando esta tecnología es aplicada para fines policivos. Sus márgenes de error conducen a injusticias que de no ser por la aplicación no se presentarían, dado el sesgo con el que se puede alimentar el software o los sesgos del propio algoritmo con el que opera y aprende tal tecnología.

Al evidenciar los errores de Rekognition se pudo llamar la atención sobre los riesgos de la misma solo por el estatus de los datos de las personas sobre las que se aplicó la herramienta. En cualquier caso este hecho dio buenas razones para determinar dichos riesgos y hacer consciente a la sociedad del peligro cuando se usa sin las correcciones necesarias, creando una narrativa muy diferenciada a la oficial. Su impacto fue tan significativo que la propia Amazon reconoce recientemente los posibles riesgos en el uso policial y suspendió el uso con tales fines de manera indefinida.

Un análisis crítico de la tecnología no puede ser una actividad solamente académica, el ejercicio de la ACLU con los sesgos y fallos que pudo haber tenido, evidenció que la Inteligencia artificial no es autónoma y no surge de la nada, al ser un artefacto humano reproduce las imperfecciones humanas e injusticia, por tanto las narrativas de precisión y todopoderosa alrededor de la tecnología,  son solo narrativas que ocultan consecuencias que inintencionadamente se pueden producir sin que se haga un análisis socio humano a profundidad. La crítica sirvió además sirve para una transformación y corrección cuando la tecnología se desborda a usos impensados.   

En términos de entretenimiento y de la recepción no especializada, la tecnología de reconocimiento facial al haber sido empleada por muchas aplicaciones se presenta como un avance más de IA que por ejemplo facilita control de acceso a eventos deportivos de hinchas no deseados, prevención del terrorismo, elección de contenidos inapropiados, coincidencias en aplicaciones de citas, decisiones financieras y de seguros por verificación biométrica, entre muchas otras, lo que refuerza una narrativa de progreso, desarrollo y avance.

¿Cuáles son las historias “oficiales” incrustadas en / alrededor de su objeto? ¿Qué se sabe generalmente sobre cómo se inventó, cuándo y quién lo inventó? ¿Existen versiones diferentes y competitivas de sus historias? ¿Quién cuenta o llega a “ver” estas historias? ¿Quién le da forma? ¿Cómo ha viajado históricamente? ¿Cómo estos ayudan a constituirlo? ¿Qué otras grandes narrativas hacen referencia a él y cómo importan esas referencias?

Amazon Rekognition se desarrolla en 2016 por Amazon Web Services con fines de análisis y comparación de imágenes, video, rostros, etc. como un software de servicio el que en 2017 fue usado por el Sheriff del Condado de Washington para identificar los rostros de personas sospechosas y compararlos con las bases de datos propias. Este uso creativo se extendió a otro tipo de autoridades y agencias de seguridad con fines similares, pero a raíz de los errores en la identificación a partir de la comparación de rostros se crea una alerta y se evidencia la injusticia probable con el uso de esta tecnología para la detección de sospechosos de crímenes.

Las miradas alrededor de Recognition son diferenciadas porque la intencionalidad de esta tecnología es civil y no necesariamente se previeron los usos que se le han dado y que se le podrán dar en el futuro. Desde la propia Amazon destacan su potencialidad, como es natural, y la defienden de los críticos aduciendo mal uso de la herramienta de acuerdo a las recomendaciones de la propia compañía, en tanto los márgenes de error para identificar objetos no deben ser los mismos que para la identificación de rostros, como parece haber ocurrido con la prueba que denunció la ACLU ante el Congreso de los EE. UU.

Es de anotar también que no es la única compañía que ha desarrollado este tipo de software dado que tanto IBM como Microsoft han hecho lo mismo. Desde la perspectiva de mercado Recognition pudo haber estado en el momento y lugar equivocado para que su principales competidores usaran las debilidades manifiestas para aventajar a Amazon en el mercado reforzando su baja eficacia en comparación con la de ellos y capitalizaran este caso en beneficio propio.

Reflexión

El caso descrito de Amazon Recognition es uno más de desarrollo tecnológico, sus determinantes y consecuencias. En sí mismo el desarrollo de la Inteligencia Artificial y el aprendizaje que de esta se deriva es intencionalmente estratégico desde el plano corporativo y económico, pero evidencia que las estructuras que gobiernan las relaciones sociales reales condicionan tales desarrollos, que en muchos casos reproducen lo defectuosas que estas son. Los sesgos en la tecnología recrean los prejuicios sociales de diferente orden como la raza, el género, estrato social, nivel educativo, etc.; no es un asunto del uso dado o el direccionamiento de la tecnología, sino es en la configuración básica de la misma, en la lógica misma de cómo se construyen los algoritmos.

El argumento tradicional de que la tecnología es neutral y que los usos son los que la hacen nociva, es insostenible ahora dado el sesgo que se transfiere en muchos casos al funcionamiento mismo de la tecnología, por lo tanto es un imperativo, más que nunca, atender a un desarrollo tecnológico, desde sus primeras etapas, que sea integral, humano y con sentido de respeto por los derechos de las personas; aunque siempre habrá al interior de los laboratorios intereses que sobrepasan los límites sociales, legales y éticamente permitidos, cobijados con el manto de la libertad, el progreso científico y la propiedad privada.  La tecnología no puede ser ni más bondadosa ni más perversa que los propios seres humanos, por tanto el control aún es nuestro.   

https://aws.amazon.com/es/blogs/aws/thoughts-on-machine-learning-accuracy/

https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28

https://aws.amazon.com/es/rekognition/?blog-cards.sort-by=item.additionalFields.createdDate&blog-cards.sort-order=desc

https://www.thetelegraph.com/news/article/Amazon-extiende-veda-de-reconocimiento-facial-a-16186374.phphttps://www.tecnoseguro.com/analisis/cctv/rekognition-amazon-reconocimiento-facial-investigaciones

Análisis de sentimientos de comentarios de Facebook y Métodos etnográficos en línea

Análisis de sentimientos de comentarios de Facebook usando codificación automática en NVivo 11 de Pudaruth et. al. y Métodos etnográficos en línea: Hacia una comprensión cualitativa de las prácticas de la comunidad virtual de Jörgen Rahm – Skageby

Por: Henry Romero

En esta reseña se refiere en primer lugar al artículo de Pudaruth, Moheeputh, Permessur, & Chamroo (2018) sobre análisis de sentimientos a través de Nvivo 11 y luego se abordará el artículo sobre Métodos Etnográficos en línea de Rahm – Skageby (2011). Para los dos textos se hará una descripción de los aspectos de mayor relevancia y del mismo modo se ofrecerán algunos juicios críticos alrededor de los mismos cuando se considere pertinente.

El análisis de sentimientos descrito se centra en los datos derivados de la red social Facebook, la que cuenta con la mayor cantidad de suscriptores en el mundo y en la que a través de la interacción con los perfiles, con funciones como like, clics, comentarios, mensajes, publicaciones, etc, ponen de manifiesto de manera escrita en palabras y símbolos sentimientos y emociones de los interactuantes.

De este modo y a través del uso de Ncapture dentro del software de análisis cualitativo NVivo se capturan 626 publicaciones y comentarios de usuarios de Facebook en el marco de la página de debates Opposing Views. Con esta muestra de datos se depuraron para clasificarlas como expresiones que reflejan sentimientos positivos, neutrales y negativos. En el análisis de los comentarios se clasificaron y codificaron los sentimientos como moderadamente positivos, muy positivos, moderadamente negativos y muy negativos. A cada codificación de estas se agruparon las palabras que transmiten sentimientos positivos y negativos con sus respectivos sinónimos. Se empleó el codificador automático que por solamente contar palabras sin contexto puede tener grandes limitaciones. Frente a los resultados se puede describir solamente que se obtuvo un 29.6% de comentarios positivos y un 62% negativos.

Más allá de lo cuantitativo, la utilidad de estos análisis redunda en los usos estratégicos de mercadeo empresarial que si bien no son una fotografía exacta de la realidad, sí permiten observar percepciones frente a asuntos y temas muy puntuales, como la manera con la cual se ha recibido un producto por parte de los consumidores.

El ejercicio descrito es significativo para comprender la funcionalidad del software NVivo  y sobre el supuesto de que con las palabras expresamos sentimientos podemos indicar que hay importantes limitaciones. Una de estas en el grado de intensidad de los sentimientos que una sola palabra no puede reflejar, por lo que se requiere de un conjunto y contexto. De igual modo los contextos en los cuales se emiten los comentarios deben ser comprendidos, pues expresiones en distintos contextos pueden significar cosas distintas.

En segundo lugar se analiza el uso de métodos etnográficos en línea, que como sostiene Rahm-Skageby (2011) representa un recurso importante para abordar problemas en comunidades virtuales. El punto de partida es el reconocimiento de comunidades virtuales en las que hay un intercambio comunicativo permanente que sirve de base para identificar relaciones, problemas, interacciones motivadas, intereses, comportamientos, lenguaje simbólico, etc., material rico por su perdurabilidad en las tecnologías on-line, que es propicio a su vez para hacer trabajo de tipo etnográfico guardando las distancias con respecto a las comunidades reales y a la etnografía más tradicional.

Las similitudes son suficientes como para poder tipificar este enfoque de investigación cualitativa como etnográfico pero en comunidades virtuales y cuyo propósito según Rham-Skageby (2011) es mirar más allá de las cantidades y las distribuciones de datos y tratar de descubrir las razones más profundas de los comportamientos o sentimientos estableciendo sus porqués. Es así como en el artículo se exponen las etapas a seguir en un ejercicio etnográfico en comunidades virtuales.

En primer término se recomienda la definición del entorno y del enfoque de la investigación. En tato investigación cualitativa resulta importante el grado de participación del investigador y el punto de partida que este asume y cómo interpreta el entorno en el que se encuentra inmersa su comunidad objeto de análisis. El entorno, sostiene Rham-Skageby (2011), debe definirse en términos tanto sociales como técnicos, ilustrando, características típicas, procesos de desarrollo del sistema, base de usuarios, antecedentes históricos, fenómenos sociales característicos, contenido de importancia en las preguntas frecuentes, cualquier estándar oficial de conducta, etc. del mismo modo resulta útil para reconocer inicialmente la perspectiva de investigación como una forma de delimitar que las descripciones puramente objetivas y libres de valores son muy difíciles, si no imposibles.(Pág. 412)

El primer paso es hacer una entrada cultural a la comunidad, la cual puede ser oculta a manera de espía o abierta en donde se ingresa como un miembro más de la comunidad, presentándose como investigador y pidiendo consentimiento a los demás miembros. Luego de esta etapa se procede a la recolección de los datos en línea, la cual puede hacerse como recopilación de documentos, observación en línea o entrevistas en línea. Al ser de interés todas las actividades de la comunidad una clasificación de los datos puede ser pertinente, pues a pesar de estar direccionada por una pregunta de investigación los datos pueden ser más o menos pertinentes, por tanto siempre habrá riesgo en la selección. De igual modo se puede dirigir la recolección hacia una selección puntual sobre el objeto de interés o una distribución en la medida que se obtiene de diferentes fuentes en términos generales.

Como etapa subsecuente se hace una observación o una inmersión en la comunidad con el ánimo de poder comprender las actividades e interacciones en la comunidad haciendo un esfuerzo por experimentar la vida cotidiana tal como está compuesta por los miembros regulares de la comunidad estudiada. Esta participación en la comunidad varía en grado de involucramiento desde lo más abierto a lo oculto. Con la observación en línea y el apoyo de notas de campo se busca recoger con una mayor sensibilidad a los fenómenos datos e información de relevancia que no pueden deducirse únicamente del texto.

Las consideraciones éticas como etapa en el enfoque etnográfico en línea tienen el mismo valor que en la postura tradicional pues no siempre la información y datos son considerados públicos, por lo tanto se requiere de un consentimiento para su uso y de no ser así se debe optar por un uso que refiera al anonimato.

El análisis de los datos es una etapa fundamental que puede asumir diferentes modalidades dependiendo del tipo de problema que se esté abordando. Aun así, el análisis temático se remite a una lectura cuidadosa y una relectura de los datos para encontrar temas recurrentes en los datos, siempre desde un marco general, ya que puede admitir muchas lecturas desde marcos disciplinares diferentes.

El autor sugiere para este análisis el propuesto por Romano et al. (2003) el que se sintetiza en el siguiente cuadro:

Fuente: (Rham-Skageby, 2011)

En esta propuesta hay una clara inmersión y participación en la comunidad desde las categorías teóricas del investigador desde la cual se selecciona, codifica y hace interpretaciones desde los referentes teóricos para agregar y producir los resultados de la investigación.

Para la presentación de los resultados se propone en primer lugar el uso de cualidades como las propiedades de un diseño digital que es experimentado en su uso, cualidades que no siempre convergen en una misma dirección pero que justamente pueden permitir comparabilidad en el uso.

En segundo lugar se puede proceder analíticamente para relacionar y contrastar la complejidad del conflicto estudiado. Sirve para presentar integralmente un respaldo para la comparación en varios casos específicos. Cuando se identifican los extremos en un determinado conflicto resulta muy útil para postular, identificar e investigar actividades, preocupaciones e intenciones entre los extremos.

Luego del análisis y el uso de cualidades emerge un patrón de diseño el cual es una exposición estructurada de una solución genérica a un problema en un contexto de comunidad virtual. El patrón de diseño puede emerger de diversas formas, unas más funcionalistas u otras más narrativas pero casi siempre se componen de un nombre, la descripción de un problema así como del contexto, las fuerzas en juego y una solución genérica, los que se pueden llevar directamente a las comunidades estudiadas para su discusión y retroalimentación, con lo que se dará un mayor respaldo y cobrará mayor validez.

El enfoque de etnografía on-line parece ser muy interesante por su aparente facilidad de acceso, sin embargo como el propio autor lo resalta tiene unas ventajas y limitaciones que son de atención. En primer lugar están las características propios del contexto virtual y es que se mueve esta comunidad en lo global, anónimo, interactivo, mediado y manipulable. Esto puede redundar en un direccionamiento de ciertos participantes porque son los únicos interesados y se aparta de la realidad de toda la comunidad, efectos por la diversidad de tecnología que media la interacción, la identidad, el anonimato y el seudonimato preocupan metodológicamente.

Otro aspecto a resaltar es la transferibilidad y credibilidad de los estudios bajo este enfoque. Sin embargo estos aspectos no son más preocupantes que en cualquier otro estudio cualitativo. Aun así, la credibilidad depende siempre de los grados de consistencia con los usos y prácticas que en las comunidades se presenten así como su limitada transferibilidad. Casi que ningún estudio cualitativo tiene pretensiones de generalización, aun así, es posible su valor heurístico para otros casos, objetos o estudios, que se aborden desde el mismo enfoque teórico y categorial.

Finalmente la confirmabilidad y la fiabilidad son factores a considerar en la etnografía on-line. De un lado, se espera que los resultados puedan ser confirmados por otros y que las descripciones de los investigadores sean lo más precisas para poder confiar en estas. Esto debe matizarse pues los modelos y teorías desarrollados, no siempre son acabados y genéricos además de reconocer que en investigación cualitativa no se puede medir dos veces lo mismo de la misma manera.

La etnografía on-line se ha presentado como un enfoque versátil en el contexto de las comunidades virtuales. Un punto a considerar es la limitación que este enfoque conlleva. En primer lugar no son comunidades heterogéneas y mediadas solo por lenguaje, sino que hay un sesgo en el tipo de comunidad pues son activistas en las redes sociales. Esto nos ubica en un terreno que no necesariamente es representativo cualitativamente hablando. Otro elemento es la incursión de los bots con fines estratégicos de persuasión y coacción. Internet es un ecosistema en donde se conforman comunidades de diversa naturaleza que se oscurecen con factores característicos como el anonimato y el seudonimato, que transforman las interacciones y las desnaturalizan, por tanto no es clara la naturaleza del objeto que se estudia. Pero puede ser un prejuicio buscar comunidades humanas, auténticas, reguladas y civilizadas en un ecosistema en el que no se hallarán, por tanto lo que se debe considerar es la propia naturaleza del lazo social en la red y a partir de esto hacer las aproximaciones etnográficas.

Referencias

Pudaruth, S., Moheeputh, S., Permessur, N., & Chamroo, A. (2018). Sentiment Analysis from Facebook Comments using Automatic Coding in Nvivo 11. Advances in Distributed Computing and Articial Intelligence Journal, 7(1), 41- 48.

Rham-Skageby, J. (2011). Online Ethnographic Methods: Towards a Qualitative Understanding of Virtual Community Practices. En D. Ben, Handbook of Research on Methods and Techniques for Studying Virtual Communities: Paradigms and Phenomena. (págs. 410-428). Hershey: IGI Global.

Reseña Crisis económica y financiera mundial y opinión periodística editorial (Iván Rodrigo Mendizábal)

Por: Henry Romero

El estudio presentado sobre análisis del discurso en las comunicaciones en Ecuador, relativas a la crisis económica y financiera desencadenada en los Estados Unidos en el año 2008, es un ejemplo del cual se pueden extraer importantes ideas sobre la práctica del análisis del discurso y los resultados que este puede arrojar. En esta reseña se destaca las principales ideas del estudio, pero igualmente se hacen observaciones críticas al respecto.

El estudio se centra en un análisis del discurso sobre la manera en que los medios de comunicación escrita más relevantes de Ecuador en sus editoriales cubrieron la crisis que se desencadenó en los Estados Unidos en el año 2008 y que trascendió dichas fronteras. La orientación del investigador estuvo determinada por la pregunta ¿de qué manera los editoriales y los artículos de opinión, publicados en las páginas de los principales diarios ecuatorianos, hicieron comprensible la gravedad de la crisis al público ecuatoriano, profundizando en su análisis?

Para los fines del análisis se tomaron las editoriales de los cuatro principales diarios de Ecuador en sus secciones editoriales durante el mes de abril del año 2009, delimitando el alcance solo a las opiniones editoriales y diferenciándolas de las secciones económicas especializadas de los propios medios, para reconocer algunas características. Se partió de la creencia que las editoriales siempre se hacen de un lugar de enunciación, no son neutrales y pretenden incidir en la opinión publica. Por tanto el estudio abordó el contenido semántico y las formas argumentativas a través de partes y jerarquías como frases, agentes de poder, los manejos del lenguaje, estrategias de discurso, evidenciando valoraciones y juicios, propósitos, prejuicios y como discurso ideológico se analizaron las valoraciones explícitas e implícitas, indagando el uso retórico de las palabras, eufemismos, metáforas intencionadas y estereotipos. En este sentido, aunque el autor no lo nombra de esta manera, lo que hace es análisis crítico del discurso y no solo análisis del discurso.

Los referentes de la crisis del año 2008 describen una serie de prácticas en los mercados financieros que implican altos riesgos en los usos de los recursos financieros, especialmente en lo relativo al otorgamiento de créditos hipotecarios a personas con alto riesgo de impago, este tipo de circunstancia es muy sensible a las bajas de precios en los bienes raíces, lo que fácilmente puede desencadenar impagos en los créditos y al ser lo suficientemente estructural esta modalidad para los bancos se ven comprometidos igualmente en sus obligaciones. En paralelo a esto, se cita la crisis de 1929 y resultan encontrándose similitudes en especial en la falta de regulación y como bien lo sostiene el investigador y es que “el problema esencial de la crisis fue y sigue siendo el cálculo especulativo” (Mendizábal, 2010, pág. 128). En este punto ya se puede sostener que hay dos problemas, uno el real y dos el de la comunicación del problema, a esto deberíamos sumar los problemas inherentes a la naturaleza de la información económica y financiera que es fuente para el comportamiento en el mercado.

La importancia de los asuntos económicos para la opinión pública es de las mayores, por tanto las responsabilidades que las comunicaciones sobre esta adquieren un grado de responsabilidad del mismo nivel, dado que el impacto que tienen en la vida cotidiana tanto de los grandes inversionistas como del ciudadano común es real. A pesar de esto, hay un posicionamiento del editorialista que puede asumir tendenciosamente movido por el interés del propio medio o por intereses particulares como puede ser natural en toda opinión. La comunicación económica tiene un doble efecto y es que directamente se puede emplear como fundamento en una decisión económica y a su vez es direccionadora de la opinión pública.

Los editorialistas de los cuatro medios objeto de análisis son expertos económicos de orden mundial y regional que escriben para un público interesado, de clase media, con formación mínima superior y con cierto nivel de experticia y familiaridad en los temas económicos. Quiere decir esto que los medios eligen a su público en estos temas.

Identifica redes semánticas que configuran el discurso periodístico. En primer lugar una red que denota los análisis orientados desde las críticas al capital especulativo y las consecuencias del neoliberalismo. En segundo lugar una red que gira alrededor de los actores involucrados en la crisis, responsabilidades, efectos y beneficiados como en el caso de China, que incursiona como compradora de los bonos del gobierno norteamericano pero para asegurar beneficio en el comercio de sus productos, en esta se halla una alta presencia ideológica en el discurso periodístico, y evidencia que los actores emergentes a partir de la crisis y las implicaciones para un escenario multipolar y altamente competitivo como lo que se desprende del posicionamiento de China. Otra red semántica permite identificar las estrategias a seguir para superar y recuperarse ante la crisis que, centradas en las políticas del gobierno norteamericano pusieron en evidencia el carácter privado de las ganancias y la responsabilidad pública de las perdidas y rescates. Del mismo modo las opiniones de expertos especialistas giran alrededor de la defensa del sistema y de las estrategias de los organismos financieros multilaterales. Una cuarta red y eje discursivo gira alrededor del impacto en la moneda ecuatoriana, dado que su economía se dolarizó en 1999, por tanto esta crisis natural en los Estados Unidos, y en general cualquier otra, tendrá efectos directos en la economía ecuatoriana, lo que hace que tratadistas especializados siempre vean esto como un tópico de interés. Finamente se detecta una quinta red semántica centrada en las criticas al gobierno del presidente Rafael Correa en su proceder frente a la crisis dada la dolarización de su economía.

Resultado del estudio se presenta el carácter discursivo empleado y se encuentra que tienen vertientes hacia la argumentación y la cognición, con fines didácticos para ilustrar a los lectores y explicar la naturaleza de la crisis; interacción y persuasión, con fines estratégicos e ideológicos y también planteando dilemas y esperanzas, tomando en cuenta la coyuntura que se vive. Desde los recursos retóricos la investigación evidencia el uso de metáforas, ironía, elogio, aprobación o reprobación inmersos en los diferentes discursos periodísticos.

Se llega igualmente a que las representaciones en los diarios analizados son de naturaleza ideológica a través de la cual se trata de persuadir, apelando a los sentimientos de duda o de certeza del lector.

La conclusión configurada es que en la narrativa implícita en el discurso global hay cuatro hechos con su respectivo corolario:

  • la crisis económica y financiera es producto del juego especulativo que pone en cuestión el neoliberalismo y el estado de bienestar.
  • existen estrategias globales y locales donde aparecen juegos de poderes en defensa del sistema capitalista.
  • las economías emergentes hacen imaginar un panorama de inseguridad dado que han surgido de esquemas diferenciales a los que occidente está acostumbrado.
  • la crisis económica y financiera mundial tampoco es el espacio que se pueda aprovechar para cambiar la moneda en Ecuador y por el contrario hay que sostenerlo dados los efectos positivos que esto le ha traído al país.

Al margen del fondo tratado en el estudio de Mendizábal, que en ocasiones no parece que haga un análisis del discurso, sino parece que está haciendo un análisis de los hechos, y de los problemas de comunicación de medios, es posible hacer unas notas criticas alrededor de su estudio.

La separación de dos discursos intencionadamente hace pensar que en el propio planteamiento del estudio, se tiene la creencia que las secciones editoriales, por ser de opinión tienen un sesgo ideológico y las secciones especializadas, si bien no carecen de este, no es tan marcado como en las opiniones de los editorialistas. Desde la perspectiva económica, esta es una creencia que se ha fortalecido, pero que no es del todo precisa. Las secciones económicas por ser más especializadas tienden a ser más explícitas y técnicas. Aun así, los problemas que el autor bien diagnóstica alrededor de los sesgos ideológicos presentes por la condición de medio y el impacto que este puede generar, así como por el posicionamiento de los editorialistas, en el caso de la información económico financiera las estructuras propias de la información, los datos, los criterios técnicos, etc. son en sí mismos ideológicos. En este estudio, con la separación que se realiza entre editorial y secciones especializadas económicas, se pretende enfocar en lo aparentemente interpretativo, no neutral e ideológico, la sección editorial interpretativa y subjetiva por naturaleza, se cree está elaborada sobre una base objetiva de datos y cifras económicas, sin embargo lo que se cree objetivo en términos económicos y financiero no es tal. Los datos económicos son formas interpretativas que también son no neutrales. Para sostener esto, basta con pensar en la realidad productiva de las empresas y su valoración en la bolsa. Son solo expectativas. Y justamente las expectativas son configuraciones de creencias apoyadas en aparentes opiniones objetivas y datos de expertos, no de editorialistas, que en rigor serian lo mismo.

Valga decir igualmente que desde la perspectiva de la comunicación periodística se trata en términos generales de describir y que por esto es un detonante de percepciones de la ciudadanía, pues están forjando el clima de opinión. En rigor, en las crisis, cualquiera que estas sean, la comunicación sobre ellas se convierte en un factor más de la propia crisis, si no, en el propio detonante de la misma, pues es a través de esta que las reacciones sociales se generan.

Metodológicamente la investigación hace un análisis del discurso a profundidad pues no emplea software de lexicometría y va más allá de una interpretación de datos de frecuencias. Recurrencias y relaciones terminológicas cuantitativamente hablando. Analiza extractos de las editoriales y hace interpretación semántica e inferencial que ubica y segmenta en las cinco redes semánticas que describe. Este proceder, si bien tiene la bondad de ser profundo y no solo cuantitativo, deja entrever el carácter subjetivista del análisis del discurso. Es un buen ejercicio para sacar a la superficie cómo un equilibrio en el análisis del discurso es necesario para una mayor validez y legitimidad en términos epistemológicos.

El artículo presenta igualmente un sentir del momento por el clima de opinión desencadenado por la crisis y por la forma como los medios crean la percepción de la misma. Al poner de manifiesto que la crisis parece ser el fin de un período del capitalismo y la apertura de otro, no es más que un imaginario que dispone el papel de los medios que se basan ya sea en realidades o en quimeras y que resulta configurando percepciones e induciendo sentimientos que crean esferas tendenciosas y muy alejadas de la realidad asentando un carácter constructivo de la realidad y no descriptivo como pretenden ser.

Trabajos citados

Mendizábal, I. R. (2010). Crisis económica y financiera mundial y opinión periodística editorial. Comhumanitas, 1(1), 123-154.

Representaciones sociales sobre la justicia en víctimas del conflicto armado colombiano

Henry Romero

El análisis presentado en el estudio sobre las representaciones sociales alrededor de la justicia es un ejercicio de interés desde el punto de vista discursivo.

Las representaciones sociales sobre la justicia en una población que ha vivido el conflicto directamente en Colombia resultan significativas para una comprensión de la magnitud del conflicto, en especial de los efectos en las formas de representación y transformación de la vida de las personas y comunidades.

Evidenciar elementos de diferentes visiones alrededor de la justicia en un grupo nos puede mostrar la necesidad de abordar las problemáticas desde una visión integral que no solo sea retributiva, sino que restaure la verdad y una distribución de compensaciones entra las partes en términos justos, es apenas un modelo de justicia que respondería a unas problemáticas complejas como las que pueden verse reflejadas en los conflictos armados. El estudio hecho a través del software iramuteq presenta potencialidades y desafíos en las metodologías cualitativas e interpretativas.

Es un estudio interpretativo con apariencia de descriptivo, pues limita el análisis a las frecuencias de palabras y sobre esto sostiene a la luz de referentes teóricos que hay una determinada concepción de la justicia. Parece permanecer en la superficie de las palabras y no ahonda en los efectos en la percepción por ejemplo de la propia violencia, la muerte, las relaciones políticas y el deber ser. Esta exigencia no se hace de manera gratuita pues en la introducción del estudio se esbozan los efectos de la violencia como un hecho de la muestra a observar, pero en el estudio mismo no se valida nada de esto, cuando perfectamente se puedo indagar al respecto, siendo elementos importantes dentro de la Teoria de las Representaciones Sociales.

La interpretaciones a la luz de frecuencias pueden ser una tarea bastante subjetiva pues el relacionamiento que se ofrece es el del interprete investigador y no la relación que el sujeto observado posee. Por ejemplo, podríamos igualmente decir que las palabras corrupción e injusticia, definidas dentro del núcleo compartido por el grupo observado, no presentan relaciones de causalidad para explicar la injusticia, sino más mas bien hacen parte de la representación social de la justicia contextualizada. No es un elemento que distorsione la representación ideal de justicia, sino más bien un elemento constitutivo de la representación social de la justicia. Podemos afirmar que los dos grupos diferenciados por esta razón no por hacer alusión a la palabra corrupción ya su concepción de justicia es diferente.

Tanto igualdad como equidad en sí mismas no podrían interpretarse como imbuidas de universalidad, pues en términos teóricos y de justicia básica como los de Rawls tienen ese matiz, pero en la significación de las personas en su cotidianidad pueden estar fundadas en sus perspectivas propias del bien, particulares, y no son abstracciones, en tanto la propuesta de Rawls es un ejercicio de experimento mental.

Las limitaciones de los estudios interpretativos a la luz del análisis de frecuencias de las palabras a través de software, puede dejar muchos vacíos. Partir de referentes teóricos para el análisis presenta un sesgo de hacer hablar a las palabras en términos de los referentes teóricos. Pensemos en si la base teórica hubiese sido los marcos de amigo – enemigo de Carl Schmitt en lugar de la teoría de la justicia de John Rawls, la interpretación de las palabras y el análisis hubiese sido muy distinto del que se ofreció. Sin juzgar negativamente el estudio, si sugiere preguntas sobre el carácter explicativo y descriptivo, de no ser esta su finalidad, y enfocarse en la interpretación a través del lenguaje, aun más nos deja dudas primero sobre la profundidad del análisis y de la excesiva subjetividad presente en el análisis de los resultados.

Reflexión Análisis del Discurso en práctica: una descripción

La interesante descripción que presenta Norman Fairclough en Lenguaje y Poder es una muestra de lo interesante y rico que puede ser el análisis crítico del discurso. La estructuración de diez preguntas que nos pueden ayudar a hacer un análisis crítico del discurso resulta esquemática pero heurísticamente significativa.

Los aspectos del lenguaje en sus formas experienciales, relacionales y expresivas son vehículos que enfocan los discursos desde posicionamientos ideológicos. Las relaciones de poder y autoridad expresas en los modos en que se redacta como por ejemplo los imperativos, son muestra de que en el discurso la relación real o extratextual, se puede reproducir en este, o la pretendida por el emisor. La sobrerredacción como la explica el autor es un indicio de la necesidad de énfasis que el emisor tiene frente al tema y el direccionamiento que quiere hacer, de tal modo que en esta característica se aprecia parte de su intención y definición de un foco de atención. La expresividad por lo general ha estado ligada a la persuasión característica de los discursos, pero es también útil en la identificación de esquemas de clasificación ideológicamente contrastables. Otro recurso de valor en el análisis del discurso es la pretensión de conocimiento y verdad que se tiene por el emisor en tanto la modalidad categórica empleada hace transparente, neutral y atenido a los hechos el contenido informacional, sin embargo esto es de interés pues puede estar fundado en bases ideológicas como en los abundantes casos de falsas noticias actualmente.

Desde la perspectiva del análisis, la forma del discurso, sus conexiones, sus metáforas, sinonimias, su redacción, sus conexiones dentro y fuera del texto, los significados, el centro del mismo, develan desde un punto de vista crítico las relación de autoridad, control y poder, así como la jerarquización social, segregación y estereotipos.  Fairclough presenta ejemplos de diversa naturaleza como declaraciones de profesionales, artículos de prensa, anuncios publicitarios, entre otros, en donde se interpreta el texto a la luz de estas herramientas. Sin embargo es posible observar que, si partimos de un análisis crítico con interés en los aspectos ideológicos hay unos márgenes importantes que someten al propio análisis a niveles de ambivalencia, en tanto el propio análisis es objeto de análisis ideológico. Hacer una lectura pretendidamente objetiva del discurso resulta una tarea que puede tornarse compleja dada la multiplicidad de significados contextualizados que puede suponerse en el contenido del discurso, así como en las intenciones adjudicadas al emisor sobre la base de las técnicas del análisis y sobre la definición de categorías ideológicas.

En el análisis del discurso debe reconocerse su carácter interpretativo y fundamentado en bases también ideológicas. La sola adjetivación del análisis como crítico, lo ubica en un contexto de enunciación y muestra la diversidad de interpretaciones que se pueden hacer. Solo la categoría “ideología” está direccionando el sentido que se le dan a las modalidades empleadas en la construcción del discurso; en ausencia de esta, creo que las modalidades adquieren un sentido distinto.

Sobre los elementos para comprender el ACD

El objeto que posibilita la interacción social humana es la capacidad de lenguaje, sin este el entendimiento y la organización se tornan difusos. Entrar a definir o conceptuar alrededor del lenguaje resulta arriesgado por su naturaleza compleja, por esto históricamente se han explorado y establecido diversidad de puntos de interpretación del objeto lenguaje. Es una tarea titánica responder a ¿qué es?  sin dejar por fuera o incluir aspectos que otros pueden juzgar no relevante.

A pesar de la complejidad que esto reviste, aproximar algunas ideas puede resultar orientador. En este sentido el lenguaje es un sistema articulado con reglas funcionales en relación a la realidad y con fines de interacción humana. De esto se derivan conceptos como significado, que gracias al denominado giro lingüístico en la filosofía del siglo XX, condujo a reconocer que el significado no solo depende de lo que se refiere en el mundo con las palabras, objetos o situaciones, sino al sentido, la intención y el contexto en el que se enuncia. En esto coinciden Grice (1957/2005), Wittgenstein (1953/2009), Austin (1962/1990), Searle (1969/1990), siendo estos últimos los que reivindican la pragmática del lenguaje como relevante en el significado. En esta pragmática el contexto o entorno, entendido como los factores que espacio – temporalmente, forman el tapiz o paisaje (Escandell, 1996) que rodean las relaciones lingüísticas en la acción humana y que la afectan en sus sentidos, intenciones y referencias; y cobra la importancia que previamente no había tenido en los estudios del lenguaje y por tanto para su comprensión. Igualmente junto al contexto confluyen elementos pragmáticos como los determinantes psicológicos de la intención que direcciona los actos humanos.

Un salto generado por el giro pragmático en el lenguaje es que se comprende como un acto, pues en su contexto, el lenguaje en su uso se produce (Austin, 1962/1990) y (Searle, 1964/2005) como consecuencia de un acto humano. En esa particularidad con los actos lingüísticos podemos decir de diferentes maneras en diferentes sentidos, o también de diferentes maneras decir lo mismo. Lo importante es el reconocimiento de la producción del habla la que ubica al lenguaje en su uso como fenómeno de análisis. Será así como se acuña el concepto de acto de habla como la unidad mínima de análisis del lenguaje en uso y sobre el cuál se sostiene que existen multiplicidades que buscan representar, declarar, expresar, comprometer y dirigir (Searle, 1964/2005).

En el contexto de los actos de habla hay intenciones al hablar, al decir algo a alguien, cuando esto no se limita a lo meramente representacional, sino que se dirige a la búsqueda de un propósito de incidir en la conducta, a convencer al oyente, podemos decir de la mano de Austin (1962/1990) que cuando es efectivo, es un acto perlocucionario. De este sentido de los actos lingüísticos podemos conectar la noción de discurso, el cual sea como una unidad de significado simple o como construcción compleja se produce con la intencionalidad de influir en los oyentes. El análisis para el develamiento de esa intencionalidad y sus efectos en su contexto objetivo y subjetivo, en sus dimensiones semánticas, sintácticas y pragmáticas, es lo que se puede definir como análisis del discurso. Cuando este análisis se hace sobre unas premisas relacionales de poder, control, lenguaje e ideología se puede afirmar que es un análisis crítico del discurso (Stecher, 2009).

Trabajos citados

Austin, J. (1962/1990). Como hacer cosas con palabras. Barcelona: Paidos.

Escandell, V. (1996). Introducción a la pragmática. Barcelona: Ariel.

Grice, P. (1957/2005). Significado. En L. V. Villanueva, La busqueda del significado (págs. 481 -490). Madrid: Tecnos.

Searle, J. (1964/2005). ¿Qué es un acto de habla? En L. V. Villanueva, La búsqueda del significado (págs. 431 – 447). Madrid: Tecnos.

Searle, J. (1969/1990). Actos de Habla. Madrid: Catedra.

Stecher, A. (2009). El analisis crítico del discurso como herramienta de investigacion psicosocial en el mundo del trabajo. Universitas psychologica, 9(1), 93-107.

Wittgenstein, L. (1953/2009). Investigaciones Filosófica. Madrid: Gredos.

Mini-proyecto Módulo 4 – Henry Romero

Análisis de Contenido para la sistematización de la literatura en un proyecto de investigación doctoral

  1. Introducción

El análisis de contenido de la literatura a emplear en un proyecto de tesis es indispensable para adelantar un proceso riguroso desde las primeras etapas, pues nos ayudará a direccionar los esfuerzos solo en las fuentes de mayor pertinencia y validez de acuerdo al problema planteado en la investigación y a los objetivos que, derivados de este, se planteen.

En este orden es que la necesidad de hacer una revisión de la literatura se convierte en una tarea prioritaria, siendo fundamental para determinar las formas en que el problema a investigar, ha sido investigado y a través de qué referentes y métodos, así como los resultados a los que se ha llegado por la comunidad científica particular.

Los métodos de análisis y exploración de la bibliografía tradicionales e intuitivos que normalmente dependían de la experticia del investigador, implicaban un riesgo alto de desconocer literatura relacionada e importante para las investigaciones.  Este miniproyecto se ha orientado a la luz de la pregunta de ¿Cómo hacer una evaluación de la bibliografía a través del modelo sugerido por Codina (2018) en el contexto de un proyecto de tesis en el Doctorado de comunicación, lenguajes e información de la Universidad Javeriana? Con este modelo se busca allegar la precisión requerida aun cuando hay limitaciones de pares, tiempo, recursos bibliográficos, etc. Aun así, el miniproyecto ilustra el proceso estructural del modelo sugerido por Codina (2018), el que se ha instrumentalizado con el apoyo del software Coding Analysis Toolkit para allegar los coeficientes de Krippendorff´s Alpha y Kappa y se ha hecho una evaluación de resultados.

2. Problema

El problema que ha orientado el miniproyecto se desprende de la necesidad de cómo conformar un corpus bibliográfico cuyo contenido sea pertinente y válido para un problema y unos objetivos en el marco de un proyecto de tesis en un programa de doctorado. Dadas las fallas que se pueden dar en los estados de arte o en las revisiones de la bibliografía, el análisis de contenido direcciona sistemática y rigurosamente el trabajo de selección de fuentes.

Fuente: (Codina, 2018)

Como vemos en la figura anterior, para que una investigación esté centrada en la problemática propuesta, la revisión de la literatura no puede ser superficial, requiere un análisis de contenido que permita en gran medida ubicar al investigador en la literatura. Por tanto, las preguntas de cuáles son las fuentes, teorías, conceptos clave; los puntos de vista políticos manifiestos en las fuentes, los fundamentos epistemológicos y ontológicos, así como en general los principales debates que se han suscitado alrededor del problema, son de la mayor relevancia a la hora de comenzar a hacer una investigación. 

Por esta razón se ha sintetizado el problema en la siguiente formulación ¿Cómo hacer una evaluación de la bibliografía a través del modelo sugerido por Codina (2018) en el contexto de un proyecto de tesis en el Doctorado de comunicación, lenguajes e información de la Universidad Javeriana? Con esta pregunta guiaremos el trabajo subsiguiente.

3. Métodos

Principalmente en este miniproyecto se ha seguido el modelo sugerido por Codina (2018) el cual se propone en las siguientes etapas:

Fuente: (Codina, 2018)

Sobre la base de una muestra de fuentes se hizo un análisis de contenido de las mismas siguiendo la estructura antes citada. Se procedió principalmente a la conformación de un corpus de datos de dichas fuentes con las categorías de interés codificadas.

3.1. Búsqueda

La información por cada unidad bibliográfica se sintetizó en:

Título de la fuente

Autores

Filiación

Abstract

Palabras Clave

Conclusiones

Se elaboró un libro de códigos para las categorías de análisis en el cual se codificó el tipo de metodología, el enfoque teórico, el énfasis disciplinar y el tipo de investigación.

Sobre una muestra bibliográfica de diecinueve artículos de revistas o journals relacionados con el problema y previamente seleccionados por la reputación de las publicaciones y autores representativos, así como la vigencia y actualidad de las publicaciones, se seleccionó una submuestra de cinco para hacer las pruebas de validez con el software Coding Analysis Toolkit en el cual participaron dos pares evaluadores. Con estas dos evaluaciones se corrieron las pruebas de comparación estándar Kappa y Alpha de Krippendorff.

a. Muestra

La muestra se seleccionó obedeciendo a un criterio no probabilístico, opinático y por conveniencia, en tanto los artículos obedecen a que se han publicado en las revistas internacionales más representativas y autores también representativos, con un direccionamiento explícito hacia términos claves relacionados con la problemática del proyecto de investigación. Del miso modo obedece a que el acceso a las fuentes lo ha posibilitado.

Esta es la muestra de textos que corresponden a artículos de journals y revistas arbitradas relacionados con los ejes teóricos y categoriales del proyecto. La submuestra de 5 artículos sobre la cual se hizo el ejercicio de evaluación del contenido por pares está subrayada o destacada:

  1. Bayou, M., Reinstein, A., & Williams, P. (2011). To tell the truth: A discussion of issues concerning truth and ethics in accounting. Accounting, Organizations and Society(36), 109-124.
  2. Beyer, A., Cohen, D., Lys, T., & Walther, B. (2010). The financial reporting environment: review of the recent literture. Journal of Accounting and Economics(50), 296-343.
  3. Blankespoor, E. (2018). Firm communication and investor response: A framework and discussion integrating social media. Accounting, Organizations and Society, 80-87.
  4. Chapman, K. & Miller, G. (2019). Investor Relations and Information Assimilation. Accounting Review, 94(2), 105-131.
  5. Cooper, D., & Sherer, M. (1984). The Value of Corporate Accounting Reports: Arguments for a Political Economy of Accounting. Accounting Organizations and Society, 9(3/4), 207-232.
  6. Hales, J., Kuang, X., & Venkataraman, S. (2011). Who Believes the Hype? An Experimental Examination of How Language Affects Investor judgments. Journal of accounting research, 223-255.
  7. Henry, E., & Peytcheva, M. (2018). Earnings-Announcement Narrative and Investor Judgment. Accounting Horizons, 32(3), 123-143. doi:10.2308/acch-52121
  8. Hobson, J., Mayew, W., & Venkatachalam, M. (2012). Analyzing Speech to Detect Financial Misreporting. Journal of Accounting Research, 349-392.
  9. Lassou, P. J., & Hopper, T. (2016). Government accounting reform in an ex-French African colony: The political economy of neocolonialism. Critical perspectives on Accounting(36), 39-57. doi:10.1016/j.cpa.2015.10.006
  10. Lee, J. (2016). Can Investors Detect Managers’ Lack of Spontaneity? Adherence to Predetermined Scripts during Earnings Conference Calls. Accounting Review, 19(1), 229-250. doi:10.2308/accr-51135
  11. Macintosh, N. (2005). Annual Reports in an Ideological Role: A Critical Theory Analysis. En N. Macintosh, & T. Hopper, Accounting, the social and the political: classics, contemporary and beyond (págs. 163-171). Amsterdam: Elsevier.
  12. Mattessich, R. (2003). Accounting representation and the onion model of reality: A comparison of Baudrillard’s orders of simulacra and his hyperreality. Accounting, Organizations and Society, 28(5), 443–470.
  13. Mattessich, R. (2009). FASB and Social Reality – An Alternate Realist View. Accounting and the Public Interest, 39-64.
  14. McKernan, J. (2007). Objectivity in accounting. Accounting organizations and Society(32), 155-180.
  15. Richardson, A. (1987). Accounting as a legitimating institution. Accounting Organizations and Society, 12(4), 341 – 355.
  16. Shapiro, B. (1997). Objetivity, Relativism and truth in external financial reporting: what´s really at stake in the dispute? Accounting. organizations and society, 22(2), 165-185.
  17. Thomson, K., & Jones, J. (2016). Colonials in Camouflage: Metonymy, mimicry and the reproduction of the colonial order in the age of diversity. Critical Perspectives on Accounting(35), 58-75.
  18. Tinker, A. (1980). Towards a Political Economy of Accounting: An Empirical Illustration of the Cambridge Controversies. Accounting Organizations and Society, 5(1), 147-160.
  19. Tinker, A., Merino, B., & Neimark, M. (1982). The normative origins of positive theories: Ideology and accounting thought. Accounting, Organizations and Society, 7(2), 167-200.

3.2. Evaluación

a. Categorías de análisis (libro de códigos)

Las categorías de análisis definidas para observar en la muestra se centraron en aspectos derivados del contenido pero que pueden ser comprendidas como de carácter general y facilita identificar tendencias y ubicación teórico – metodológica principalmente. En este sentido se ha considerado oportuno identificar las siguientes categorías de análisis consignadas en un libro de códigos así:

Como se puede observar se definió un criterio de análisis el cual se expresa en unas categorías  codificadas y sobre las que se proporcionan claves para comprender el significado de las mismas a través de una breve descripción. Esto con el propósito que el par evaluador conozca con precisión el contenido a evaluar y su interpretación del corpus sea muy precisa.

b. Sistema de codificación – esquema de codificación

A continuación, se presenta el sistema de codificación que preliminarmente se estableció para cada categoría a través de la siguiente matriz.

c. Aplicación del sistema de codificación

El sistema de codificación que se predefinió, luego se configuró en el software Coding Analysis Toolkit para que los pares evaluadores pudieran hacer la colaboración en la evaluación, como se aprecia en la siguiente tabla.

El corpus conformado con la muestra se configuró de acuerdo a los requisitos de formato del software y esta es la síntesis de la submuestra alojada en la aplicación:

En la gráfica pie se evidencia la aplicación del sistema de códigos a la muestra y es posible identificar las frecuencias de cada una de las categorías de análisis.

 

3.3. Análisis

a. Reflexión sobre fiabilidad y veracidad del sistema de codificado

Con el contenido del dataset y la aplicación del libro de códigos se dispuso de dos evaluadores y una vez hecha la evaluación, se procedió a correr las comparaciones estándar que facilita Codindg Analysis Toolkit para validar el sistema de codificado. Dadas las limitaciones del ejercicio la reflexión alrededor de tales resultados es parcial.

En primer lugar, podemos afirmar que el contenido del dataset no necesariamente contiene toda la información que pudiese con precisión permitir la identificación de las categorías de análisis. Sin embargo, se parte del supuesto que los evaluadores son exertos y conocedores de gran parte de estas categorías y fácilmente pueden hacer deducciones apoyadas en juicios bien fundados por la experticia que tienen.

Una vez corridas las pruebas de análisis se obtuvo lo siguiente:

Para la prueba Kappa

De acuerdo a Landis y Koch (1977) citado por Montoro & Muñoz (2005, pág. 591) el coeficiente Kappa cuando alcanza el acuerdo perfecto alcanza el valor 1, pero cuando las posibilidades de acuerdo coinciden con las obtenidas al azar, este coeficiente tiende al valor 0. Los intervalos de la bondad del acuerdo aparecen reflejados en la siguiente tabla:

En este orden y de acuerdo a los resultados obtenidos en términos generales el coeficiente es de 0,22 lo que nos muestra un grado de acuerdo bajo según Cohen lo que en efecto se puede ver en las escasas coincidencias en la evaluación. Aun así, al ser solo dos evaluadores hay categorías en las que se ha coincidido significativamente las cuales se ven en la tabla como en los casos de enfoque teórico positivista con 0,67 Bueno, enfoque teórico de economía política con 0,5 moderado, enfoque teórico teoría critica 0,5 moderado y énfasis disciplinar 0,5 moderado. En estas categorías hay una convergencia y acuerdo, pero en términos generales el coeficiente es bajo lo que mina la validez del código empleado.

Sorprende que en las evaluaciones particulares hay una diferencia muy marcada en la categoría contable financiera, sorprende, porque todo el corpus es disciplinalmente consistente con lo contable financiero.

Desde el coeficiente Alpha de Krippendorff (2004, pág. 222), En su forma más general α  es definido por:

α = 1 – Do / Dⅇ

Donde (Do) es la medida del desacuerdo observado y (De) es la medida del desacuerdo que puede ser esperado cuando prevalece el azar. Esta definición revela dos puntos de referencia que son esenciales para cualquier medida de confiabilidad: cuando se observa que el acuerdo es perfecto y el desacuerdo está, por lo tanto, ausente, (Do) = 0 y α = 1, lo que indica confiabilidad perfecta.

Sobre esta base, la interpretación de los resultados apunta a que no hay acuerdo en términos generales en las evaluaciones de los dos pares. En términos particulares hay categorías que tienen valores positivos mayores al 50% que en comparación con el coeficiente Kappa van en la misma dirección de mostrar niveles de acuerdo moderado.

En contraste son significativos los valores negativos en algunas categorías de análisis que según Krippendorff (2004) obedecen a dos razones. Por un lado, al tamaño de la muestra, es decir cuando es muy pequeña. Sin embargo, al encontrar valores positivos en muchas categorías no parecería ser la razón el tamaño muestral. Por el otro lado indica Krippendorff que estos valores negativos pueden igualmente obedecer a desacuerdos sistemáticos y creo que este es el caso. La razón de esta apreciación es porque las categorías en donde el Alpha es negativo, son las categorías en las que las diferencias de estimación de los evaluadores son más grandes. De este modo es un problema de desacuerdo sistemático por diferencias en las interpretaciones de las categorías presentes en el corpus, que pueden obedecer a un conocimiento más profundo de uno de los evaluadores en tanto es la bibliografía que ha configurado y explorado a mayor profundidad y también puede obedecer a que por disposición de tiempo la evaluación se hizo superficialmente. Otra explicación final pudo provocarse por la insuficiencia del contenido en el corpus para haber deducido de este las categorías de análisis, aunque por ser estas tan genéricas su efecto realmente puede ser poco significativo.

3.4. Síntesis

Como síntesis del corpus los resultados ayudan a interpretar que hay una presencia importante del enfoque positivista; no obstante, hay acuerdo también en los enfoques críticos y de economía política. Esta característica del corpus lo hace equilibrado en cuanto a enfoques teóricos. Desde el punto de vista de énfasis disciplinar hay problemas importantes de acuerdo en lo contable financiero que revelan una anomalía en la evaluación. Algo similar ocurre en el desacuerdo en los métodos mixtos que puede obedecer a insuficiencia de información en la estructuración del corpus.  En la misma dirección se presentan las diferencias en las apreciaciones sobre la naturaleza explicativa de los papers. Estos resultados de desacuerdo alertan a que el ejercicio de evaluación sea mas dedicado y minucioso.

4. Conclusiones

El análisis de contenido como metodología a emplear en las etapas tempranas de la exploración de la literatura, en el marco del desarrollo de tesis es de relevancia para validar un corpus bibliográfico y reducir los riesgos de omitir información, precisar pertinencia del mismo frente a los fines perseguidos por la investigación. Es una herramienta muy útil a la hora de usarla para la revisión de la literatura puede fácilmente servir de base para hacer clasificaciones de acuerdo a categorías predefinidas de interés.

El uso de libros de código es un instrumento formal que requiere cuidado en su elaboración, en especial en la claridad de significado y sentido de cada una de las categorías de análisis que son la base interpretativa de colaboraciones de evaluadores. De su adecuada elaboración depende en gran medida una evaluación apropiada.

La asistencia del software Coding Analysis Toolkit es fundamental para los indicadores estadísticos y los coeficientes de validez Kappa y Alpha de Kripendorf de las evaluaciones que, para los no especialistas puede resultar un ejercicio complejo de desarrollar. El acuerdo o desacuerdo en las evaluaciones de pares proporciona información importante para hacer ajustes al corpus bibliográfico.

El caso particular que se analizó, ilustra muy bien la dinámica del análisis de contenido para estos propósitos, y permitió evidenciar la necesidad de hacer análisis sistemáticos de la literatura para dar rigor a las investigaciones de nivel de maestría y doctorado. Aun siendo un caso ilustrativo y con fines de aprendizaje, las limitaciones derivadas de ello, así como la disposición de mayores tiempos, colaboraciones y tamaño muestral, los resultados se han podido interpretar sobre los coeficientes ya referidos y han reflejado una confirmación de lo que hipotéticamente se puedo intuir tanto con la muestra como con las evaluaciones, en el sentido de no tener una evaluación con coeficientes más convergentes gracias a las limitaciones de tiempo principalmente.

5. Referencias

Codina, L. (2018). Revisiones bibliográficas sistematizadas. Barcelona: Universitat Pompeu Fabra.


Krippendorff, K. (2004). Analysis of Content: a introduction to its methodology. Thousands Oakes: SEGE.


Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Cities in competition. XV Spanish-Portuguese Meeting of Scientific Management (págs. 587 -598). Sevilla: Universidad de Sevilla.

https://cat.texifter.com/

Ensayo Módulo 3 – MBA Henry Romero

Cerrando las brechas: uso de modelos basados en agentes para conciliar datos y teoría en la ciencia de la comunicación computacional de Annie Waldherr y Martin Wettstein

El Modelado Basado en Agentes (MBA) se propone como una estrategia para solventar dos vacíos que tradicionalmente resultan problemáticos, en especial en las ciencias sociales. Esta potencialidad de cerrar las brechas entre las perspectivas micro y macro en primera instancia y el acercamiento de los datos a la teoría en segunda, son un presupuesto para justificar su utilidad y uso en la ciencia de la comunicación computacional que sin embargo no está exento de algunas observaciones críticas que es propósito abordar en este ensayo. 

La integración de conductas micro y los fenómenos macro sociales es un problema sociológico fundamental al cual se ha respondido con diferentes niveles de prioridad. La linealidad explicativa y causal parece no ser la más apropiada, por lo que la pretensión del MBA tiende a verse como una solución explicativa a los fenómenos emergentes. En este sentido es  como Waldherr & Wettstein (2019) apoyándose en Epstein (2006) sostienen que el MBA puede servir tanto para deconstruir fenómenos sociales e identificar los procesos individuales que subyacen, como para extrapolar los efectos individuales al nivel social para observar los efectos emergentes en un entorno virtual. En la misma dirección Squazzoni (2012, pág. 14) sostiene que permite abordar el modelo de interacción social como un problema de abstracción y escalas, más que como un problema de niveles categóricos en el que un nivel tiene primacía sobre el otro.  Sin embargo, aun siendo correctos estos argumentos, persisten limitaciones. Los modelos en sí mismos son formas representacionales abstraídas de interpretaciones y supuestos que son generalizados a los individuos, la modelación exige simplificación y entre más simplificación, más distanciamiento de la complejidad real. Los fenómenos emergentes no son una agregación de las conductas individuales, este es un presupuesto bastante convincente por la evidencia; aun así, el MBA no puede capturar todas las variables que inciden en la configuración de los fenómenos macrosociales. Esta limitación da lugar a resultados sorpresivos que se desmarcan de las aparentes predicciones del modelado. La lógica de la agregación que conduce a los fenómenos macrosociales puede resultar desconcertante para la comunidad científica más tradicional por la sensación de un proceso de caja negra.

El ajuste del modelo a los datos empíricos en el MBA depura y acerca la teoría a los datos que, según Timothy, Palada, Griffin, & Neal (2019) es una ventaja que “permite al investigador cuantificar el grado en que las predicciones del modelo corresponden a los datos empíricos.” Del mismo modo la validez externa que describen Waldherr & Wettstein (2019, pág. 3989) en la que se comparan  los datos con el modelo, es un ejercicio necesario y propio de la ciencia, que no debería ser visto como una debilidad del modelo, pues de entrada un modelo es lo que es y no es la realidad, y por el contrario acercar el modelo a través de ajustes derivados de los datos empíricos es muestra de lo sofisticado y práctico que puede llegar a ser el MBA. La mediación entre teoría y datos a través del modelado puede interpretarse como que el MBA no es más que un instrumento de verificación de las teorías, el que no tendría así que comprenderse como algo independiente en sí mismo. Si la base de configuración de supuestos y reglas del modelo son las teorías ya bien establecidas, la dimensión del MBA es un instrumento de verificación teórica y nada más.

A diferencia de lo anterior, sí es problemático el MBA cuando se considera que su objetivo es predictivo, pues este criterio de demarcación es demasiado fuerte para las ciencias sociales. El modelado es una simplificación y por tanto siempre va a ser hipotético y probabilístico, más cuando los fenómenos a explicar y predecir son complejos. El ejercicio sugerido por Railsback & Grimm (2012, pp. 302-306) citado por Waldherr & Wettstein (2019) de la variación de parámetros irrelevantes de manera iterativa como prueba de robustez, conducente a evaluar la calidad predictiva, pone en cuestión cualquier modelo en el que variables insignificantes tengan efectos determinantes. La debilidad general del modelado orientado a la predicción, es justamente que no se tiene certeza de que todas las variables insignificantes puedan tener un efecto menor. Las predicciones tienen un riesgo que es inherente, más si se trata de un ejercicio derivado de un modelo. Si se aplica tal procedimiento para evaluar la robustez ¿estamos con precisión en el ámbito de la predicción? El direccionamiento a futuro característico de una predicción desde la perspectiva de los modelos en ciencias sociales resulta más condicional y prescriptivo para la realidad y no descriptivo y explicativo de la realidad. El problema normativista que subyace al dictado reiterativo de nuevas reglas y condiciones, así estas estén basadas en datos, lo que muestra es la necesidad de revisar permanentemente el potencial del modelo, desplazándolo de un carácter normativo hacia instancias con mayor valor descriptivo y explicativo, en lugar de hacia una predicción.

La predicción y la validez de los modelos son los principales aspectos sobre los que normalmente se dirigen las críticas, como bien argumenta Epstein (2008), sin embargo creo que la predicción debe comprenderse desde una perspectiva diferencial en fenómenos sociales y en fenómenos naturales y esto porque la variabilidad de las características humanas hace a estos fenómenos complejos, cosa que en los naturales, sin ser simples, metodológicamente se atienen más a lo observable y no tanto a las instancias teóricas como en los sociales. No significa lo mismo predecir en fenómenos naturales que en sociales. Por otro lado, y atendiendo a Popper (1973, pág. 158) la exigencia de que las descripciones sociales deberían incluir, y acá lo hago extensivo a los modelos, el estado mental e incluso físico de todos los implicados, resulta excesivo. Sin embargo, detrás de esta exigencia está la consciencia de que, variables insignificantes pueden llegar a incidir significativamente en los resultados, por tanto, debería considerarse todo desde el inicio, si se pretende la predicción en sentido fuerte. Pero es claro que esta demanda no es razonable, pero tampoco es infundada cuando se aduce la predicción como objetivo en el MBA.

Sostienen Waldherr & Wettstein (2019) que “la validez de las simulaciones es un problema no solo en la ciencia de la comunicación, ha sido el foco de discusión durante años en diversas disciplinas que aplican ABM” (pág. 3986). Los procesos de validación interna y externa, así como la fiabilidad, demuestran el trabajo adicional de justificación que el MBA requiere. Parece que la tarea del investigador ya no se remite solamente a demostrar empíricamente sus hallazgos, sino gran parte del trabajo consiste en defender la metodología empleada para que una vez validada esta se transfiera a los resultados. Esta práctica que puede ser más común en metodologías que son percibidas escépticamente por la comunidad científica, sirve para ilustrar dos aspectos: primero, hay una consciencia de los límites entre las explicaciones planteadas con un modelo de simulación, su relación con la teoría empleada, los datos empíricos y su carácter predictivo; por otro lado, la necesidad adicional de justificar y validar además de los resultados, la metodología misma, a diferencia de otras metodologías cuya validez no es tan cuestionada.

Desde el punto de vista de la ciencia de la comunicación computacional los problemas son los mismos, inclusive se puede considerar una mayor dificultad si atendemos que en materia de comunicación, estructuralmente hablando se tienen que hacer unos presupuestos aun mayores. Un ejemplo de esto lo precisa Raymond Coll (2011, pág. 11) y es que en un acto de comunicación al menos nos topamos con 2 eventos, tres informaciones y dos significados. El evento 1 de observar lo real, el evento 2 de informar a través de un código. El significado 1 que le da el emisor a lo que ha observado en el evento 1 y que se transmite con la información 2 en el evento 2, suponiendo que el código sea aplicado de igual manera, así mismo el significado 2 que interpreta el receptor con sus conocimientos previos y la información 3 en que reconstruye el receptor. Del mismo modo puede argumentarse desde la perspectiva de John Searle (1990) y (1992) quien tipifica los actos de habla y la intencionalidad como direccionamiento mental cuando los ejecutamos. Para un modelador de agentes bastará responder e insistir en que aún así, estas condiciones y variables se pueden atribuir a los agentes en un modelo.

Lo cierto es que siempre que se sobredimensiona una metodología dentro de las ciencias sociales, recaerán sobre esta unas miradas más incisivas que en otras más mesuradas. El caso parece ser el de el MBA, porque las reiterativas argumentaciones alrededor de su validez y su capacidad predictiva en la literatura son muestras de las limitaciones y criticas que desencadenan tales argumentaciones.

Trabajos citados

Colle, R. (2011). El análisis de contenido de las comunicaciones. Tenerife : Revista Latina de Comunicación Social.

Epstein, J. (2006). Generative social science. Princeton: Princeton University Press.

Epstein, J. (2008). Why model? Journal of Artificial Societies and Social Simulation vol. 11, no. 4 12, 11(4), 12.

Popper, K. (1973). La miseria del historicismo. Madrid: Alianza.

Searle, J. (1990). Actos de habla. Madrid: Cátedra.

Searle, J. (1992). Intencionalidad. Madrid: Taurus.

Squazzoni, F. (2012). Agent-based computational sociology. Chichester: Wiley.

Timothy, B., Palada, H., Griffin, M., & Neal, A. (2019). An Integrated Approach to testing dynamic, multilevel theory: useing computational models to connect theory, model and data. Organizational research methods, xx(x), 1-34. doi:10.1177/1094428119881209

Waldherr, A., & Wettstein, M. (2019). Bridging the Gaps: Using Agent-Based Modeling to Reconcile Data and Theory in Computational Communication Science. International Journal of Communication(13), 3976–3999.

Reseña Análisis de contenido en la era de los medios interactivos de Paul D. Skalski, Kimberly A. Neuendorf, and Julie A. Cajigas

El texto de Skalski, Neuendorf & Cajigas (2017) nos muestra principalmente los desafíos y las particularidades que la metodología de análisis de contenido enfrenta en la actualidad ante la incursión en las últimas décadas de los medios interactivos. Las precisiones alrededor de las nuevas ventajas y herramientas, asi como los retos que subyacen por la naturaleza de los nuevos medios son de relevancia para ser observadas por quienes nos acercamos al análisis de contenido. A continuación, comentaré a manera de reseña los aspectos más relevantes de su escrito, al final haré una breve reflexión sobre la vigencia del análisis de contenido.

El método de análisis de contenido en el marco de los medios digitales se ha enfrentado a cambios importantes, dada la dinámica que se ha presentado en estos. En lo que se conoce como la WEB 2.0 se ha potenciado la diversidad, dinámica social, libertad de acceso y creación de medios con énfasis interactivo, lo que ha hecho que los usuarios abandonen la pasividad a la que los medios tradicionales los confinaban y se conviertan también en productores de contenido.  En consecuencia, de esta multiplicidad la producción y el acceso a contenido se ha acrecentado en comparación a otras épocas en donde había restricciones a la información. La difusión de contenido a través de las páginas web corporativas, personales, del gobierno y las propias redes sociales es la característica principal de los medios interactivos actuales y un factor de crecimiento de contenido que diversifica la metodología de análisis de contenido, pero a su vez lo complejiza por la naturaleza dinámica y temporal que mucho de este contenido posee.

Los grandes volúmenes de datos resultado de estas condiciones de los medios son una ventaja de contenido que, de la mano con la potencialidad de los medios computacionales para manejar tales datos, los análisis pueden abarcar muestras mucho más significativas, pero que los resultados pueden eventualmente volverse abstractos y poco humanizados. Aun cuando la producción de contenido no ha sido una preocupación directa del análisis de contenido en los medios tradicionales, en los interactivos se convirtió en un factor crítico porque a diferencia de los tradicionales, el contenido era fijo y la fuente fácilmente identificable, ahora la interactividad puede variar el tipo de contenido aun cuando se haga uso del mismo medio por usuarios diferentes.

La autenticidad del contenido se vuelve difusa pues en la red fácilmente el contenido se masifica sin que la fuente originaria pueda ser determinable. Resulta abrumador también para los analistas ahora precisar contenidos tan variados y diferenciados por la interactividad en tanto los usuarios de información a través de medios interactivos se configura por las frecuencias de consulta, las páginas donde se navega, tiempos de permanencia horas del día, link consultados, las publicaciones en los muros de redes sociales, las replicaciones de la información, perfiles, etc. “la falta de contenido fijo en los nuevos medios basados en computadoras elimina la certeza que una vez existió con tipos particulares de contenido.” (Skalski, Neuendorf, & Cajigas, 2017). A esto hay que agregar que el contenido es de varios tipos ya que no obedece al tradicional origen y mensaje, sino que hay contenido creado, seleccionado y compartido y el que sale producto de la interacción del usuario con el medio, lo que pone al análisis de contenido en un mayor desafío. No basta con analizar el contenido mismo sino también se requiere determinar el tipo de contenido a analizar y las intenciones cuando se comparte contenido en la interacción, la fuente del mismo, si es de otros usuarios o es de la propia plataforma usada.

En el análisis de contenido de los videojuegos, por sus características se puede seleccionar muestras a tendiendo ya sea a un enfoque de disponibilidad en el que se toma una muestra de todas las sesiones posibles de todo un inventario o un enfoque basado en la exposición / uso, el muestreo en este caso de las sesiones se hace sobre las sesiones de juego reales de los usuarios. Además de esto es relevante tener presente que para analizar un juego hay que tomar diferenciales como la edad, la experticia, el tiempo de las sesiones las etapas del juego, los personajes, la información complementaria y contextual del propio juego, los modos de juego, el tipo de consola, las generaciones de las mismas etc.

Para la adquisición del contenido es oportuno preguntarse según (Skalski, Neuendorf, & Cajigas, 2017):

¿Cuál es la función de esta plataforma?

¿Está destinado a transmitir un mensaje a una audiencia grande e indiferenciada, o está destinado a compartir mensajes personales con una red conocida más pequeña?

¿Utiliza solo mensajes públicos o hay funciones de mensajes interpersonales y privados?

¿Permite la plataforma a los usuarios crear contenido, compartir contenido recopilado o ambos?

¿Se ha estudiado una plataforma similar en el pasado y cómo se estudió en ese momento?

Responder a estas preguntas es valioso para adquisición de contenido, especialmente en medios nuevos o emergentes.

El contenido en la WEB 2.0, según Skalski, Neuendorf, & Cajigas (2017) se puede adquirir atendiendo a dos categorías de sitios que son los SNS cuya estructura es de redes sociales y los que no. En el caso de las redes sociales el contenido esta normalmente limitado a grupos seleccionados de contactos y es posible hacer restricciones, lo que incide en la selección de muestras, además de los aspectos éticos y las restricciones de tipo legal que puedan recaer sobre el uso de datos. En los sitios que no son redes sociales como el contenido es de acceso mucho más masivo y público, la adquisición del mismo debe hacerse con un muestreo focalizado y por lo general por conveniencia pues la multiplicidad de sitios de esta naturaleza es muy variada, por tanto, un muestreo desde un solo blog por ejemplo ayuda a hacer análisis. En el caso del microblogging como Twitter los desafíos son mayores, pero es un medio muy versátil ya que permite al usuario identificarse, etiquetar, hacer retweets, y esto facilita el análisis de contenido.

El uso de aplicaciones automatizadas para la selección de contenido, ha venido desarrollándose con la propia interactividad de los medios, es así como los motores de búsqueda más populares como Google y Bing sirven para reunir contenido asociado que está dispuesto en la red y ya software especializado para procesar datos de redes sociales son propicios para obtener muestras significativas como API de Twitter.

El almacenamiento del contenido es también un problema a la hora de hacer investigación de contenido por la variabilidad del mismo, en el caso de los juegos se pueden hacer las grabaciones de las partidas jugadas, archivar en instantáneas en PDF en el caso de Facebook o programas como Mhtlm para almacenar paginas web con un contenido, si no total, si el importante. Con los medios de almacenamiento tradicionales o los basados en la nube ya no hay tanta dificultad para el almacenamiento y la disponibilidad del contenido a analizar.

De otro lado, la codificación, los libros de código y los formularios de codificación son estructurales para el análisis de contenido y, para los medios interactivos, el establecimiento de esta tarea, dispendiosa y ardua en los medios tradicionales, ahora se facilita con el uso de hojas de cálculo que ya digitalizados los formularios con los datos pueden ser fácilmente manejables. Así mismo, el uso de tecnología para el manejo de la información se ha diversificado y es de este modo como Skalski, Neuendorf, & Cajigas destacan el uso de  medición de imágenes, reconocimiento de voz, análisis de contenido multimedia, siendo el punto principal de todas estas técnicas automatizar la indexación y recuperación de archivos de video y audio para un análisis que apunte a segmentar video, reconocimiento de imagen, facial, de objetos y de comportamiento, la transmisión de video y los metadatos, a fin de identificar patrones. Algo similar señala con el análisis de imágenes en movimiento como los análisis de contenido de películas lo cual de manera diferente se hace principalmente con software como CATA.

Finalmente, los cuasi análisis de contenido se han venido proliferando, pero como aplicaciones y páginas que muestran algunas tendencias en áreas particulares para acceso de usuarios en general, pero sin ningún tipo de motivación académica o científica, cosa que no los descalifica, pero si posibilita bases para hacer investigaciones más estructuradas. Algunos ejemplos de análisis de contenido y aplicaciones que lo asisten se muestran en las siguientes imágenes:

El panorama analizado por los autores si bien nos da claridad sobre las nuevas condiciones del análisis de contenido y pareciese que al estar digitalizados los medios y al haber una amplia proliferación de aplicaciones, funciones en las redes sociales y sitios web, así como páginas especializadas en hacer la analítica de los datos y en muchos casos análisis de contenido, la pregunta obvia es ¿cómo se ve el futuro del análisis de contenido? y la respuesta más apropiada, es que el análisis de contenido es una creación humana, sobre asuntos humano y para los humanos. Los sistemas computarizados hacen un trabajo dispendioso que facilita la labor del investigador pero que en sí mismo no tiene propósitos ni la curiosidad humana. El análisis de contenido tiene cada vez más vigencia, pues la creatividad humana, su carácter sémico y la interacción mediada simbólicamente, en su dinámica natural, nutrirá los medios de comunicación, la información y su lenguaje, que sea en el medio que sea se reproduce. La comprensión de las interacciones humanas nos remitirá siempre al contenido empleado en nuestra comunicación.