Reflexión: La confiabilidad en el Análisis de Contenido (Krippendorff)

Por: Luis Felipe Navarrete

En el apartado 11 Klaus Krippendorff amplía la reflexión en torno a la confiabilidad en la investigación científica, extendiendo la mirada a elementos como la muestra, la representatividad, la validez, la replicabibilidad, entre otros (como el uso de la estadística, las distribuciones y los estándares), haciendo un recorrido por modelos, formulas y parámetros que han permitido avanzar en la gestión de tan exigido criterio.  

De entrada demarca tres criterios desde los cuales se busca establecer y concretar la confiabilidad: estabilidad, reproducibilidad y precisión, en relación a la obtención de datos de confiabilidad.

La estabilidad se refiere a la constancia del proceso en el tiempo y se evidencia en la repetición de ensayos y la obtención de mismos resultados. Se requiere revisión de pruebas por parte de otros observadores en una prolongación de tiempo para registrar su continuidad; si hay variaciones no se cumple con este componente. De allí la necesidad de clarificar los criterios de clasificación. Krippendorff aclara que esta tipología es la más “débil” y resulta insuficiente como criterio único de confiabilidad, pero puede verse como un primer paso o nivel.

La reproducibilidad se asocia a la posibilidad de que el proceso se replique –o pueda serlo- por parte de otros analistas (que operan en otras condiciones, entornos o con instrumentos diferentes-pero equivalentes); este procedimiento alude a la acción de inter-codificación, acción que acentúa una fiabilidad mucho más sólida que el proceso anterior.

La precisión remite al ajuste de las especificaciones y el manejo de datos en condiciones estándar de prueba, lo cual se extiende a la generación de procedimientos que acompañen el procedimiento central, aspecto que usa la verificación, el contraste, la mirada del experto y el refinamiento de los sistemas de evaluación.

Se resalta la relevancia de la confiabilidad de los datos como punto que cimenta los niveles de razonamiento, análisis y el establecimiento de conclusiones; de allí la urgencia de evitar sesgos, refinar los datos, sistematizaciones pertinentes, definiciones bien establecidas, entre otros.  Retomando a Kaplan y Goldsen (1965) se señala que la confiabilidad da seguridad sobre los datos independientes del evento de medición, dan constancia al trabajo y permite escapa a las variaciones de las circunstancias. De allí la vitalidad de estipular la fiabilidad.

En las dimensiones contempladas se hace mención de los niveles de comparación (de dos observadores), de la riqueza de la discusión en la comunidad académicas, de las sustentaciones empíricas, de la necesidad de diseños que no impliquen variaciones,  estrategias para expulsar el “ruido”, muestras o cantidades que resulten representativas (atendiendo a las característica de los universos) la potencia de la lectura de los datos textuales y las extensiones analísticas derivadas de instrumentos –replicables y demostrables-  que permitan concretar amplios márgenes de concordancia (como una posibilidad interpretativa asociada a la fiabilidad), que puntualizan la vitalidad de definir unos criterios de confiabilidad que permitan sustentar las conclusiones  en la estructura confiabilidad: garantía: resultados.

En el proceso de codificación del material textual, se resalta que la deficiente fiabilidad repercute en la validez, lo cual hace que la debilidad de la confiabilidad se vea materializada en conclusiones débiles o fácilmente refutables. En esa misma línea analítica se destaca que  “la fiabilidad no garantiza a validez”; el sesgo disciplinar, cosmovisiones, inciden en la interpretación: los datos no hablan solos, sino que se traducen en las codificaciones que pueden estar erradas y maltratar los datos.  De esta manera “la fiabilidad es una condición necesaria, pero no suficiente, para la validez”. Se añade a esto que “Lo atractivo no necesariamente es fiable “– lo cual hace cuestionar su validez: ejemplo señalado es el trabajo sobre “topónimos” de Merrit (1966).

En la problematización sobre la valides se señala que el uso de mecanismos computacionales, que aparentemente aumentan la confiabilidad, también han suscitado reflexiones y problematizaciones, porque si bien procesan caracteres, no lo hacen con los significados. Si el investigador programa mal, la computadora continua el procedimiento “clasifica amplios volúmenes de palabras sin atribuirles sentidos”… De allí la necesidad de segundos observadores y las revisiones de expertos.

Ahora, si bien la mirada del experto contribuye a afianzar una confianza en la generación de datos, no debe omitirse que, desde la dimensión de la reproducibilidad, se requiere que cualquier investigador pueda ejecutar la acción de codificación y operacionalizar desde las categorías utilizadas en la investigación. .

Un método de validez mencionado en el capítulo corresponde a la técnica que hace que los analistas dividan las muestras en unidades –aproximadamente- iguales para dar cabida a codificaciones diferencias (por observadores diferentes) para luego pasar a una comparación de las frecuencias y demás resultados obtenidos; si las diferencias eran mínimas se demarcaba la confiabilidad. A pesar del alcance de este procedimiento, se cuestiona en tanto se reduce a la nivelación de dos sub muestras (de allí que llegue a desaconsejarse su uso).

Condiciones de prueba, según Krippendorff:

  • Clara formulación de las instrucciones de codificación.
  • Trabajo independiente de los observadores (para descartar un consenso encubierto)- “La reproducibilidad requiere al menos dos observadores independientes” “la literatura de análisis de contenido está llena de evidencia de los intentos bien intencionados pero a menudo equivocados de los investigadores para manipular el proceso de generación de datos para aumentar la apariencia de niveles de acuerdo” (Krippendorff).

La independencia resulta clave puesto que, en muchos trabajos, el investigador acude a la interpelación de analistas amigos o con quienes ha trabajado durante algún tiempo.  Esto puede producir sesgos, en tanto el acuerdo puede estar edificado no tanto desde la calidad de las indicaciones, sino desde acciones como el “ser colegas” o por el conocimiento previo de los objetivos de investigación.

Respecto a los procedimientos, aparece como práctica la actualización o ampliación de las instrucciones de codificación; si bien es posible marcar pautas desde la evolución de los procesos, es clave no confundir eso con el cambio de reglas.

En relación a los datos, muchos analistas se limitan considerar solo las unidades que logran concatenar un acuerdo, lo cual representa una problemática en tanto “la persecución de la confiabilidad” puede obnubilar la precisión de criterios que delimiten dicha exigencia. De allí que se omitan unidades en las que los codificadores no presenten acuerdo, pero que pueden ser significativas.  Una de las posibilidades reflexivas ha sido el diseño de tablas de coincidencia.   Otro de los procedimientos consiste en la acción de tres o más observadores independientes – el uno del otro- que garanticen la fiabilidad, para luego recoger las discrepancias a través del establecimiento de criterios formalizados (por ejemplo, por promedios).

Se enfatiza en la necesidad, desde cualquier procedimiento, en la confiabilidad consistente en registros (generalmente establecidos desde dos revisores, observadores o mecanismos de medición) que consideren dos de las rutas de creación de datos de confiabilidad como la unificación y la codificación, aspectos que pueden ser concurrentes y simultáneos (aunque los mecanismos matemáticos para su evaluación sean distintos).

El primero –unificación-obedece a la identificación, dentro de un medio, en espacios contiguos información que conecta con la pregunta de investigación (que conlleva acciones como articulación de notas de un periódico, o la demarcación de partes de un video).  Se pueden considerar su comienzo y su longitud, expresadas en números enteros, y precisa de por lo menos dos observadores que “unifiquen los mismo”.

El segundo –codificación- remite a la trascripción, “categorización e interpretación” de las unidades de análisis, para favorecer las comparación y análisis, donde se pueden hacer descripciones o interpretaciones específicas o múltiples, teniendo en cuenta elementos como “longitud, duración, tamaño” que requieren de un diseño apropiados de instrucciones, que permitan establecer a su vez categorías, rangos, escalas, medidas que, por claridad, deben ser “mutuamente excluyentes” en aras de evitar la ambigüedad.

Se identifican  también dos tipos de errores que generan valores negativos: los errores de muestreo, reflejados en la falta de justificación de las muestras o en la falta de representatividad, que aparece, por ejemplo, en muestras pequeñas; y los desacuerdos sistemáticos.

Para enfrentar esto, se han postulado los desarrollos de matrices de confiabilidad, que permiten tener una visión más clara y que pueden partir de elementos básicos como el registro de los valores asignados a las unidades por los observadores, como se expresa en la siguiente figura:

Figura 1. Tomada de: Krippendorff, K. (2013) Content Analysis. An Introduction to Its Methodology (3rd ed). Chapter 11. Reliability. California, CA: Sage Publications.

Se identifican las métricas nominales, ordinales, de intervalo y de relación

Cuatro medidas o condiciones de aceptación o rechazo de la confiabilidad de las medidas: Variación insuficiente (desviaciones), consideraciones de muestreo (de la representatividad de los datos a su confiabilidad), significación estadística y estándares para la confiabilidad de los datos. Aquí se aclara que en el análisis de contenido usan variables como publicación, fecha, medida; aspectos que por su claridad resultan confiables.

Si bien la fiabilidad es un criterio cave para la valides de los resultados, muchos trabajos no declaran las evaluaciones de confiabilidad, como lo identificaron Riffe y Freitag (1996), o no aplican métodos de cálculo (Kolbre y Burnett, 1991) e inclusive, su confiabilidad puede ser discutida (Krippendorff’s u. Lombard, SnyderDuch, y Bracken 2002).  La confiabilidad debe considerarse desde el inicio de la investigación; en la generación de datos, transcripciones, este aspecto debe ser ya considerado, en tanto, la confiabilidad de los datos da luz verde a un trabajo más efectivo.

Se acentúa la necesidad de reconocer la naturaleza de los datos y el sentido de las operaciones y formulas establecidas en el establecimiento de las métricas (manifestando la claridad de las variables y las operaciones estadísticas o matemáticas aplicadas) pues esto determina la acción y sentido del proceso, como por ejemplo: “el análisis de varianza requiere datos de intervalo, las contingencias se calculan a partir de datos nominales”.

La confiabilidad se ha concretado en el consenso; el acuerdo alcanzado por codificadores en relación a los instrumentos de medición.  El coeficiente presentado por Krippendorff se ha postulado como insumo que determina el acuerdo y teniendo en cuenta los datos nominales, las métricas, los observadores y los datos (completos e incompletos).

En atención a estos procedimientos, se considera la riqueza multi-formal de las unidades del análisis de contenido, que comprende desde textos –segmentos o totalidades-, imágenes, fotografías, audios, videos, programas de tv, películas, páginas web; estructuras textuales de relevancia para los analistas.

Reseña: Análisis de contenido web: extendiendo el paradigma. Susan C. Herring

El artículo comienza presentando una breve introducción de los movimientos de la web desde sus inicios, con formas estáticas de información, hasta convertirse en un lugar interactivo que permite así mismo, gestionar, complementar y corregir, entre otras tantas acciones, contenido en la web. A partir de allí surgen interrogantes acerca del qué, cómo y cuáles elementos de fiabilidad completan y contemplan en el hacer una seria investigación de la internet.

En un primer momento, desarrolla el concepto de análisis de contenido (AC) arguyendo que, en cuanto a la comunicación respecta, este método debe mantener “características estructurales” y “temas semánticos” cuyo desarrollo se ha visto masificado en prácticas de investigación de análisis de medios, enfatizado en prensa. Esta conceptualización se dirime en dos partes que pretenden develar el AC en la web desde enfoque tradicional y no tradicional.

El AC tradicional, responde en teoría de Mc Millan a una serie de procedimientos, resumidos por Herring como: Formulación de la pregunta de investigación y/o hipótesis, señalando la necesidad de ubicación en contexto teórico; selección de muestra, la cual debe ser aleatoria; definición de categoría, buscando relación con las preestablecidas; codificación y verificación de confiabilidad, auspiciada bajo la sapiencia del codificador; y finalmente análisis e interpretación de la codificación (Herring, 2010). Sin embargo, en crítica a estos procedimientos, se apunta a la disertación de cada uno de sus pasos, que en resumidas cuentas, no visibilizan la magnitud de información sustraída de la web y muchos menos mantiene la forma asumida. 

Por otro lado, desde los enfoques no tradicionales, se pueden amoldar a las vastas formas de la web, y como lo expresa Herring, la única característica que deben cumplir estos métodos es “permitir la identificación sistemática de patrones en el enlace y contenido de mensajes interactivos, ya que este tipo de contenido es cada vez más frecuente en web” (Herring, 2010). En este orden, nombra dos tipos derivados del enfoque no tradicional.

El primero, muestra algunas formas de análisis del discurso desde la lingüística, propuesta como (CDMA) Análisis del discurso mediado por computadora, que, en su forma, puede encontrar semejanza con el AC, pero en el fondo, mantiene relaciones contextuales que básicamente se forman con la existente, aunque posibilitando la emergencia y análisis de nuevos datos. El segundo, abordado desde la sociología, se basa en el análisis de las redes sociales construidas de enlaces o hipervínculos adheridos a la red, los cuales, en un primer momento, fueron analizados en su individualidad. Estas dos representaciones, de análisis social y lingüístico, conforman las dinámicas comunicacionales que básicamente dan forma al Análisis de Contendido en la Web (WebCA).

A manera puntual, la autora muestra el blog como herramienta para desarrollar documentos web en busca de interacción. Sin embargo, al querer llevarlo a la investigación, más allá de lo tradicional, se enuncia que carece de un método de análisis de enlaces y comentarios nacientes a través de las publicaciones en el blog, lo que a su vez, repercute y muchas veces imposibilita el análisis social y lingüístico.

Ampliando a una forma menos tradicional, se derivan maneras de analizar los hipervínculos que llevan al descubrimiento de interacciones temáticas construyendo una misma categoría y discusión entre blogs, aunado a la caracterización de blogueros en núcleo. Sin embargo, independiente del corte, tradicional o no, se siguen ampliando las falencias; como lo enuncia Herring (2010) “se requiere una concepción más amplia de AC para capturar características importantes de los blogs que el enfoque limitado no incluye, incluidos los patrones asociados con enlaces, comentarios y estilo de lenguaje (2010). En este camino los desafíos para poder desarrollar diseños metodológicos de investigación Web, son latentes, aunque difíciles de conseguir debido a las características específicas de los blogs.

Finalmente, la autora concluye la necesidad de ampliar el paradigma de la AC que incluya las falencias enumeradas anteriormente, que descuidan un trabajo más potente y certero en la web; por lo que propone la apertura del paradigma a un Análisis de Contenido Web (WebCA) que mantenga, en palabras de Herring (2010) “varios tipos de información “contenida” en documentos de nuevos medios, incluidos temas, características, enlaces e intercambios, todos los cuales pueden comunicar significado” siendo ensamblados desde otras técnicas que permitan enlace web multifuncional.

De esta forma y como conclusión del artículo, se muestra las falencias y necesidades del AC y se pone de manifiesto ante dicha necesidad la expansión paradigmática bajo una serie de herramientas en WebCA, para investigaciones que cumplan, o por lo menos, amplíen el camino de análisis de contenidos en la Web.

BIBLIOGRAFÍA

Herring, S. C. (2010). Web content analysis: Expanding the paradigm. In J. Hunsinger, M. Allen, & L. Klastrup (Eds.), The International Handbook of Internet Research (pp. 233-249). Berlin: Springer Verlag. 

Reseña Análisis de contenido en la era de los medios interactivos de Paul D. Skalski, Kimberly A. Neuendorf, and Julie A. Cajigas

El texto de Skalski, Neuendorf & Cajigas (2017) nos muestra principalmente los desafíos y las particularidades que la metodología de análisis de contenido enfrenta en la actualidad ante la incursión en las últimas décadas de los medios interactivos. Las precisiones alrededor de las nuevas ventajas y herramientas, asi como los retos que subyacen por la naturaleza de los nuevos medios son de relevancia para ser observadas por quienes nos acercamos al análisis de contenido. A continuación, comentaré a manera de reseña los aspectos más relevantes de su escrito, al final haré una breve reflexión sobre la vigencia del análisis de contenido.

El método de análisis de contenido en el marco de los medios digitales se ha enfrentado a cambios importantes, dada la dinámica que se ha presentado en estos. En lo que se conoce como la WEB 2.0 se ha potenciado la diversidad, dinámica social, libertad de acceso y creación de medios con énfasis interactivo, lo que ha hecho que los usuarios abandonen la pasividad a la que los medios tradicionales los confinaban y se conviertan también en productores de contenido.  En consecuencia, de esta multiplicidad la producción y el acceso a contenido se ha acrecentado en comparación a otras épocas en donde había restricciones a la información. La difusión de contenido a través de las páginas web corporativas, personales, del gobierno y las propias redes sociales es la característica principal de los medios interactivos actuales y un factor de crecimiento de contenido que diversifica la metodología de análisis de contenido, pero a su vez lo complejiza por la naturaleza dinámica y temporal que mucho de este contenido posee.

Los grandes volúmenes de datos resultado de estas condiciones de los medios son una ventaja de contenido que, de la mano con la potencialidad de los medios computacionales para manejar tales datos, los análisis pueden abarcar muestras mucho más significativas, pero que los resultados pueden eventualmente volverse abstractos y poco humanizados. Aun cuando la producción de contenido no ha sido una preocupación directa del análisis de contenido en los medios tradicionales, en los interactivos se convirtió en un factor crítico porque a diferencia de los tradicionales, el contenido era fijo y la fuente fácilmente identificable, ahora la interactividad puede variar el tipo de contenido aun cuando se haga uso del mismo medio por usuarios diferentes.

La autenticidad del contenido se vuelve difusa pues en la red fácilmente el contenido se masifica sin que la fuente originaria pueda ser determinable. Resulta abrumador también para los analistas ahora precisar contenidos tan variados y diferenciados por la interactividad en tanto los usuarios de información a través de medios interactivos se configura por las frecuencias de consulta, las páginas donde se navega, tiempos de permanencia horas del día, link consultados, las publicaciones en los muros de redes sociales, las replicaciones de la información, perfiles, etc. “la falta de contenido fijo en los nuevos medios basados en computadoras elimina la certeza que una vez existió con tipos particulares de contenido.” (Skalski, Neuendorf, & Cajigas, 2017). A esto hay que agregar que el contenido es de varios tipos ya que no obedece al tradicional origen y mensaje, sino que hay contenido creado, seleccionado y compartido y el que sale producto de la interacción del usuario con el medio, lo que pone al análisis de contenido en un mayor desafío. No basta con analizar el contenido mismo sino también se requiere determinar el tipo de contenido a analizar y las intenciones cuando se comparte contenido en la interacción, la fuente del mismo, si es de otros usuarios o es de la propia plataforma usada.

En el análisis de contenido de los videojuegos, por sus características se puede seleccionar muestras a tendiendo ya sea a un enfoque de disponibilidad en el que se toma una muestra de todas las sesiones posibles de todo un inventario o un enfoque basado en la exposición / uso, el muestreo en este caso de las sesiones se hace sobre las sesiones de juego reales de los usuarios. Además de esto es relevante tener presente que para analizar un juego hay que tomar diferenciales como la edad, la experticia, el tiempo de las sesiones las etapas del juego, los personajes, la información complementaria y contextual del propio juego, los modos de juego, el tipo de consola, las generaciones de las mismas etc.

Para la adquisición del contenido es oportuno preguntarse según (Skalski, Neuendorf, & Cajigas, 2017):

¿Cuál es la función de esta plataforma?

¿Está destinado a transmitir un mensaje a una audiencia grande e indiferenciada, o está destinado a compartir mensajes personales con una red conocida más pequeña?

¿Utiliza solo mensajes públicos o hay funciones de mensajes interpersonales y privados?

¿Permite la plataforma a los usuarios crear contenido, compartir contenido recopilado o ambos?

¿Se ha estudiado una plataforma similar en el pasado y cómo se estudió en ese momento?

Responder a estas preguntas es valioso para adquisición de contenido, especialmente en medios nuevos o emergentes.

El contenido en la WEB 2.0, según Skalski, Neuendorf, & Cajigas (2017) se puede adquirir atendiendo a dos categorías de sitios que son los SNS cuya estructura es de redes sociales y los que no. En el caso de las redes sociales el contenido esta normalmente limitado a grupos seleccionados de contactos y es posible hacer restricciones, lo que incide en la selección de muestras, además de los aspectos éticos y las restricciones de tipo legal que puedan recaer sobre el uso de datos. En los sitios que no son redes sociales como el contenido es de acceso mucho más masivo y público, la adquisición del mismo debe hacerse con un muestreo focalizado y por lo general por conveniencia pues la multiplicidad de sitios de esta naturaleza es muy variada, por tanto, un muestreo desde un solo blog por ejemplo ayuda a hacer análisis. En el caso del microblogging como Twitter los desafíos son mayores, pero es un medio muy versátil ya que permite al usuario identificarse, etiquetar, hacer retweets, y esto facilita el análisis de contenido.

El uso de aplicaciones automatizadas para la selección de contenido, ha venido desarrollándose con la propia interactividad de los medios, es así como los motores de búsqueda más populares como Google y Bing sirven para reunir contenido asociado que está dispuesto en la red y ya software especializado para procesar datos de redes sociales son propicios para obtener muestras significativas como API de Twitter.

El almacenamiento del contenido es también un problema a la hora de hacer investigación de contenido por la variabilidad del mismo, en el caso de los juegos se pueden hacer las grabaciones de las partidas jugadas, archivar en instantáneas en PDF en el caso de Facebook o programas como Mhtlm para almacenar paginas web con un contenido, si no total, si el importante. Con los medios de almacenamiento tradicionales o los basados en la nube ya no hay tanta dificultad para el almacenamiento y la disponibilidad del contenido a analizar.

De otro lado, la codificación, los libros de código y los formularios de codificación son estructurales para el análisis de contenido y, para los medios interactivos, el establecimiento de esta tarea, dispendiosa y ardua en los medios tradicionales, ahora se facilita con el uso de hojas de cálculo que ya digitalizados los formularios con los datos pueden ser fácilmente manejables. Así mismo, el uso de tecnología para el manejo de la información se ha diversificado y es de este modo como Skalski, Neuendorf, & Cajigas destacan el uso de  medición de imágenes, reconocimiento de voz, análisis de contenido multimedia, siendo el punto principal de todas estas técnicas automatizar la indexación y recuperación de archivos de video y audio para un análisis que apunte a segmentar video, reconocimiento de imagen, facial, de objetos y de comportamiento, la transmisión de video y los metadatos, a fin de identificar patrones. Algo similar señala con el análisis de imágenes en movimiento como los análisis de contenido de películas lo cual de manera diferente se hace principalmente con software como CATA.

Finalmente, los cuasi análisis de contenido se han venido proliferando, pero como aplicaciones y páginas que muestran algunas tendencias en áreas particulares para acceso de usuarios en general, pero sin ningún tipo de motivación académica o científica, cosa que no los descalifica, pero si posibilita bases para hacer investigaciones más estructuradas. Algunos ejemplos de análisis de contenido y aplicaciones que lo asisten se muestran en las siguientes imágenes:

El panorama analizado por los autores si bien nos da claridad sobre las nuevas condiciones del análisis de contenido y pareciese que al estar digitalizados los medios y al haber una amplia proliferación de aplicaciones, funciones en las redes sociales y sitios web, así como páginas especializadas en hacer la analítica de los datos y en muchos casos análisis de contenido, la pregunta obvia es ¿cómo se ve el futuro del análisis de contenido? y la respuesta más apropiada, es que el análisis de contenido es una creación humana, sobre asuntos humano y para los humanos. Los sistemas computarizados hacen un trabajo dispendioso que facilita la labor del investigador pero que en sí mismo no tiene propósitos ni la curiosidad humana. El análisis de contenido tiene cada vez más vigencia, pues la creatividad humana, su carácter sémico y la interacción mediada simbólicamente, en su dinámica natural, nutrirá los medios de comunicación, la información y su lenguaje, que sea en el medio que sea se reproduce. La comprensión de las interacciones humanas nos remitirá siempre al contenido empleado en nuestra comunicación.

Poblamiento histórico de la urbe bogotana

Las referencias bibliográficas consultadas que dieron forma al uso de la herramienta Voyant son las siguientes:

  • Gamboa, J. A. (2005). Los caciques muiscas y la transición al régimen colonial en el altiplano cundiboyacense durante el siglo XVI (1537–1560). Bogotá, Centro de estudios Hispanoamericanos–Fundación Carolina-ICANH.
  • Torres, C. A. (2013). La ciudad en la sombra: Barrios y luchas populares en Bogotá 1950–1977. Universidad Piloto de Colombia.
  • Torres, C. A., & Alberto, C. (2009). Ciudad informal colombiana. Barrios construidos por la gente. Santa Fe de Bogotá. Editorial Unal.
  • Jiménez, D., & Borja, J. (2000). Laberintos urbanos en América latina. Editorial Abya Yala.
  • Zambrano, F. (2004). Historia de la localidad de Tunjuelito, el poblamiento del valle medio del rio Tunjuelo. Alcaldía Local de Tunjuelo–Universidad Nacional de Colombia. Facultad de Ciencias Humanas.

Introducción

Los textos trabajados en la herramienta Voyant Tools, son parte del adelanto de capítulo de contextualización de mi investigación doctoral, cuya referencia se basa en la caracterización generalizada de Bogotá desde el poblamiento Muisca, hasta la organización urbanística que recorre el asentamiento inicial de cerros de oriente, dejando por último la llegada de los barrios perimetrales.

En el centro de este poblamiento está la localidad de Tunjuelito con más de 50 años de organización y colocación, allí se encuentra emplazado el Humedal La Libélula, el cual es el campo central de mi investigación.

Esta misma herramienta permite relacionar con exactitud el número de veces que se menciona ciertas palabras, lo que es contrastado con el ejercicio anterior, pero de una forma más veraz y menos gráfica; así mismo, desde acá se pueden excluir, manualmente, palabras cuyo significado no influye en la construcción del texto, tales como artículos, preposiciones y demás elementos, mencionados aquí como palabras vacías.

En la gráfica anterior se puede evidenciar los conceptos y/o palabras de mayor usanza por cada uno de los textos evidenciada cuantitativamente. Estas corresponden a ciudad, Bogotá, desarrollo, población y urbanización; a su vez, ayuda a delimitar los sitios de acción posible de explorar, dependiendo la temática específica que se esté desarrollando. De esta forma, en estas líneas se puede hacer la lectura de una ciudad, Bogotá, cuya memoria se encuentra enraizada desde poblaciones indígenas, antes de la conquista y su ejercicio de habitabilidad del suelo, ha tenido eco en lo que ahora conocemos como la Bogotá urbana.

Por lo anterior y haciendo análisis de las palabras resaltadas, se puede entrever el juego pulsante de urbanización, que si se reconoce más a fondo, se encauza con las luchas por la legitimidad de suelos bogotanos a lo ancho y largo de la urbe. Los textos en análisis, mantienen su foco de atención en las formas de habitación del suelo, los cambios del territorio citadino, enunciando allí la expansión a causa de las migraciones recurrentes que recibían a colombianos expuestos a la guerra desde cualquier punto del mapa nacional.


Como otro punto clave a resaltar, se encuentra la fragmentación de los artículos acá mencionados, los cuales se entrecruzan para poder analizar holísticamente sus contenidos. En esta imagen se encuentra los datos de extensión documental que, básicamente, son la base para el uso de la herramienta.

Reflexión Las técnicas de Análisis de Contenido: Una revisión actualizada. Dr. Jaime Andréu Abela

Aunque en un viaje al pasado evidente de relacionamiento en prácticas de análisis de contenido, se manifestó mediante experiencias de interpretación de libros sagrados y prensa, los cuales fueron expuestas varios siglos atrás; es hasta principios del siglo XX que este método cobra fuerza e interés en las construcciones científicas, más allá de lo cualitativo, acentuado en la necesidad interpretativa de información y propaganda en época guerrerista. 

Estas formas de ahondar las bases inherentes al contenido, adquieren un vínculo posible entre las humanidades con especial relevancia en la ciencia política, como medidor interpretativo y desdeñador de la información intrínseca, tanto textual, como no textual, que teje dicho análisis, tomando como base constitutiva el contexto del discurso.

A partir de allí se reformula las formas de concebir el concepto en el tiempo, incluyendo la relevancia cualitativa que descubre el proceso de análisis en los 80. Tras esta inserción, se permite ver más allá de la enumeración y conteo de datos, igualmente interpretados. Se descubren nuevas formas de ver más allá de lo textual, lo que a simple vista por enumeración es deducible, hasta la extracción de  datos de raíces contextuales del contenido, el cual, mantiene una carga, no prejuiciosa, sino más bien conceptual, del investigador.

En esa construcción del concepto y luego de diversos aportes se llega a la definición, que para Andreú (2000) quizás sea la más completa expuesta por Bardin, quien deduce el análisis de contenido como “el conjunto de técnicas de análisis de las comunicaciones tendentes a obtener indicadores (cuantitativos o no) por procedimientos sistemáticos y objetivos de descripción del contenido de los mensajes permitiendo la inferencia de conocimientos relativos a las condiciones de producción/recepción (contexto social) de estos mensajes” (Andreú, citando a Bardin, 2000 pp.3 ).

El análisis de contenido, diferenciado del análisis lingüístico, documental y textual, se caracteriza por Inferir más allá de lo textual, entendiendo la experiencia comunicativa, no explicada donde “trata de establecer inferencias o explicaciones en una realidad dada a través de los mensajes comunicativos” (Andreú, 2000 pp. 10). Además, debe cumplir con ciertas características, que pueden ser entendidas como pasos a la hora de pensar en trabajar bajo esa técnica:

Determinar el objeto o tema de análisis. Qué y cómo investigar, manteniendo una ínfima relación con los intereses y sapiencia del investigador, existe un vínculo entre ambos que enriquecen la labor y el análisis; determinar las reglas de codificación: permite establecer parámetros claros que transforman los datos; determinar el sistema de categorías. Cómo se va a agrupar la información categórica, esa debe cumplir una serie de características que son: criterio único; posibilidad de crear nuevas categorías a través de los criterios anteriores; extensión y abarcamiento “exhaustivo”;” claras, significativas y excluyentes y nominales”; Comprobar la fiabilidad del sistema de codificación-categorización tras la comprobación de recurrencia en el análisis; y por último las inferencias, como elemento fundamental que direcciona la investigación.

Finalmente se reconoce en la actualidad, como lo expone Andreú, el uso de tres tipologías de análisis derivadas del análisis de contenido clásico, el análisis temático, el análisis semántico y el análisis de redes, que básicamente explican la agrupación por temas, agrupación por cualidades de significado, y agrupación por significados tejidos en red.

Bajo este abanico de posibilidades que se abre ante la metodología de análisis de datos, es interesante y casi que necesario pensar su utilización para ahondar en las estructuras profundas, raizales y contextuales del campo propio de investigación que guarda consigo cargas simbólicas de significado no susceptibles de interpretación a primera vista, y que se pueden convertir en señal, parte o conclusión de la investigación misma.

Bibliografía

Andréu Abela, J (2000). Las técnicas de análisis de contenido: una revisión actualizada.  Fundación Centro Estudios Andaluces, Universidad de Granada, v.10, n. 2, p. 1-34, 2000. 

EL ANÁLISIS DE CONTENIDO. REVISIÓN A PARTIR DE UN ESTUDIO DE CASO Esteban Zunino Reseña (y consideraciones) Por: Luis Felipe Navarrete Echeverría

Este trabajo Zunino presenta una caracterización de la metodología Análisis de Contenido, precisando los aspectos sistemáticos de su desarrollo, a partir de puntualizaciones retomadas del trabajo titulado “La cobertura mediática del conflicto campo-gobierno de 2008 en la prensa gráfica Argentina. Un estudio comparativo de la relevancia noticiosa del proceso de implementación de la Resolución Nº 125/8 en los diarios  Clarín y Pagina/12” , proceso desde el cual busca contribuir al conocimiento y aplicación de esta metodología al campo de las ciencias de la comunicación, reconociendo la vitalidad de este enfoque metodológico y su creciente notoriedad en el análisis de medios.   

De entrada se advierte la importancia de no confundir el análisis de contenido con el análisis del discurso (Zunino, 2015: p. 110) en tanto este último está incluido dentro de un enfoque cualitativo y apunta al ejercicio de desvelar elementos ideológicos en los entramados ocultos de los discursos. Por su parte, el análisis de contenido se incluye dentro de un enfoque cuantitativo y tiene como objetivo “descubrir el ADN de los mensajes mediáticos  (…),  reconstruir  su  arquitectura,  conocer  su  estructura,  sus componentes  básicos  y  el  funcionamiento  de  los  mismos”  (Igartua,  2006:181. Citado en: Zunino, 2015:114)

En términos generales, si bien se demarcan consideraciones que problematizan su nivel de objetividad, se remarca la necesidad de generar operaciones que garanticen su fiabilidad y su veracidad, aspectos que dependen del rigor y coherencia establecidas desde la problematización, el planteamiento de los objetivos (medibles empíricamente), los antecedentes y un marco teórico que soporten su desarrollo y ejecución.

Desde la problematización se determinan los puntos de observación (vinculados a la necesidad del establecimiento de categorías para el estudio), así como la precisión de las unidades de análisis.   A partir de este apartado, pueden establecerse los objetivos.

OBJETIVOS

El objetivo general debe ser alcanzable, demostrable y formulado de manera clara y precisa.  En el estudio retomado, el objetivo general fue “analizar la relevancia  informativa  que  adquirió  el  conflicto  en  torno  a  la  implementación  de  la  Resolución Nº 125/08” (Zunino, 2014: 3. En: Zunino 2015:112). En este planeamiento queda clara la categoría que dictamina el trazado de la metodología: con relevancia informativa se conduce a elementos de la agenda setting y la teoría del framing, lo cual permite situar la investigación dentro de un paradigma disciplinar.  A partir de aquí, se formulan los objetivos específicos, que representan  metas que permiten el cumplimiento del objetivo general; para el estudio en mención, los objetivos específicos concretaban labores cuantitativas, encaminadas a establecer la cantidad de notas en relación a la cobertura y la jerarquía temática, finalidades que concretan el estudio de las frecuencias de publicación y visibilidad mediática.

HIPOTESIS

Las hipótesis son definidas como “una proposición deducida teóricamente que postula un modelo de relación entre variables” (Sautu, 2005:10. En: Zunino, 2015:113). Estas se plantean como lecturas del fenómeno que pueden derivar de la revisión de los antecedentes.

ANTECEDENTES (o Estado de la Cuestión)

La revisión de investigaciones alrededor de la temática, permite identificar conclusiones que sirven como apoyo (y referencia para el planteamiento de hipótesis), así como los vacíos o puntos abiertos, por lo cuales se pueden enrutar las nuevas investigaciones. Cuando el material es escaso (aspecto determinado por la revisión bibliográfica) se recomienda el planteamiento de trabajos exploratorios.

CONSIDERACIONES GENERALES

Zunino remarca la relevancia que el análisis de contenido representa para los estudios en el campo de la comunicación, ubicando su uso inicial en 1930 con el surgimiento y proliferación de las Escuelas de Periodismo en Norteamérica (2015:114).

Desde esta ruta metodológica (que se insiste, conecta directamente con el componente teórico) se fijan (inicialmente) 3 características (Krippendorf, 1990. En Zunino, 2015:115): la primera se remite a su carácter sistemático, característica principal, resalta el diseño de protocolos que permiten que las reglas y las herramientas puedan ser replicadas por la comunidad científica (aspecto que demarca el valor del diseño de las herramientas).  La segunda a su enfoque cuantitativo (que no por esto omite elementos cualitativos que refuercen el trabajo) y por último su objetividad. Este último criterio ha sido problematizado, pero busca solidificarse desde acciones rigurosas de intersubjetividad, como mecanismo de validación y entenderse mejor a partir de entender los textos como estructuras que pueden ser “estudiados científicamente”.

Para el diseño, se recomienda partir de un marco conceptual de análisis de contenido, seguido por la población, luego la muestra, para pasar al diseño del codebook (libro de códigos) herramienta desde la cual se operativizan las variables.  Luego de la sistematización y análisis de los resultados se culmina con la presentación de las conclusiones.

En este trabajo, siguiendo a Krippendorf, se distinguen variaciones de las unidades de análisis: unidades de contexto, que permiten la interpretación (en el trabajo expuesto, se establecen como unidades contextuales los medios a analizar, lo cual requiere justificar por qué se seleccionan éstos), están también las unidades de análisis que conllevan a determinar –y justificar- el tiempo-periodo de observación o delimitación temporal de la muestra   (2015:117).

El concepto utilizado para el estudio referenciado en el artículo es el de hueco informativo (Zunino, 2015: 119) que está encaminado a determinar es espacio que se le da a las noticias referidas al tema (siguiendo la idea de McCombs) y que permite determinar su visibilidad y su frecuencia. Para esto se revisaron las portadas de los diarios seleccionados, así como las noticias internas.  Realizado este proceso, se pasó a la sistematización materializada en el codebook donde se implementaron variables sobre los contenidos, que permitían clasificarlos de manera precisa, evitando ambigüedades; las variables fueron valoraciones positivas, valoraciones negativas y valoraciones indefinidas (p. 123). Luego de esta sistematización procede la interpretación del investigador, proceso que, concretado en el establecimiento de las conclusiones, debe estar articulado con los objetivos establecidos. El alcance descriptivo-interpretativo del análisis de contenido, hace que esta ruta metodológica, soportada en los argumentos teóricos y el diseño procedimental expuesto, represente una herramienta de relevante alcance para los estudios de la comunicación en la tarea de abordar componentes vitales de las estructuras textuales.

Reflexión del texto Análisis de contenido de los medios: sus usos, beneficios y mejor metodología práctica de Jim Macnamara

La metodología de análisis de contenido si bien no es tan reciente, se ha convertido en una opción valida en el ámbito de las ciencias sociales y las humanidades que da cuenta de la complejidad que tienen y de sus características simbólicas. La aplicación de esta metodología a los medios de comunicación resulta de mucho interés dada las condiciones de las sociedades de información y comunicación en las que hemos devenido.

El texto de Macnamara ilustra las aristas más representativas del análisis de contenido y su contextualización al campo de los medios de comunicación. Nos expone de una manera clara aspectos relativos a los enfoques cualitativo y cuantitativos en el análisis de contenido ilustrando muy bien sus conexiones, pero también las posturas de algunos autores al respecto. Del mismo modo toca temas como los procesos de codificación humana y computarizada que como sabemos, cada vez se han automatizado más, para beneficio de los investigadores, pero sin llegar a sustituirlos. Macnamara detalla algunas características procedimentales del analista de contenido como el muestreo y la rigurosidad de la metodología para, finalmente hacer unas apreciaciones sobre su uso en los medios comerciales.

A pesar de ser un texto académico es descriptivo de la metodología. Por esta razón es susceptible de generar algunas inquietudes que es necesario abordar y comentar críticamente en esta reseña y reflexión. Mi propósito se centrará entonces en esos aspectos que a mi juicio resultan propicios de comentario y observación.

El poder de los medios en la era moderna es innegable.

Se cree que los medios de comunicación causan violencia, promiscuidad sexual y contribuyen a la discriminación contra las mujeres. La publicidad en los medios se utiliza para vender productos y servicios. Se ha demostrado que las noticias en los principales medios afectan significativamente los precios de las acciones; conducen a colapsos corporativos; causan caídas en las ventas de productos; dan lugar a la renuncia de los altos funcionarios e incluso derribar a los presidentes. (Macnamara, 2005)

Si bien es cierto que estos son ejemplos de los efectos de los medios de comunicación, estos mismos son de carácter negativo en las áreas mencionadas, sin embargo, sus efectos también pueden contribuir al direccionamiento de situaciones sociales deseadas, lo que no les quita su carácter de medios cuyos efectos pueden estar orientados y manipular la opinión. Esta situación trae detrás factores de confiabilidad y creencia ciega en la información que fluye de estos y en el reconocimiento y la legitimidad del emisor, aun así, es posible que estos emisores tengan propósitos ocultos y sabiendo esto muy bien, utilizan este poder para sus propósitos. La charlatanería (bullshit) que precisa Frankfurt (2005) y el embaucamiento nacen como una característica sobresaliente en nuestra sociedad y con este poder de los medios, las condiciones están dadas para su explotación.

El amplio espectro en el que se puede emplear el análisis de contenido a la amplia gama de textos que van desde “transcripciones de entrevistas y debates en investigación clínica y social hasta la narrativa y la forma de películas, programas de televisión y el contenido editorial y publicitario de periódicos y revistas”. Son muestra de la versatilidad y potencial de esta metodología pero que reviste complejidad además de limitaciones desde una perspectiva cientificista.

A decir de Shoemaker y Reese (1996) citados por Macnamara (2005) el análisis de contenido trata de “quién dice qué, a través de qué canal, a quién y con qué efecto” esta declaración a manera de eslogan, nos ubica en el terreno en que se mueve la metodología.

Si bien el análisis de contenido se centró inicialmente en los aspectos objetivos y cuantificables de la comunicación y según dice Neurendorf (2012) “the primary message centred methodology” (p. 38) En la comunicación no puede restringirse a este centro, sino que trasciende la naturaleza del mensaje y mueve a la significación del mismo, en tanto la significación no está solo en la estructura del mensaje como es comunicado, sino que involucra a los actores, intenciones y referentes objetivos y simbólicos, el análisis de contenido no solo en comunicación, para ser completo debe contemplar los elementos cualitativos del mensaje.

McNamara refiere abundantes definiciones que dentro de la literatura se han formulado y lo que se evidencia de manera manifiesta es una lucha por convalidarse como metodología científica, si hacemos una aproximación a analizar el contenido de las definiciones dadas por estos autores, observaremos que hay una clara intención de reivindicación de la metodología para fines científicos, pues nace como una pretensión práctica de análisis de contenidos con bases científicas, pero que requiere una justificación adicional para que sea creíble. Esto ha sucedido con gran parte de los métodos propios de las ciencias humanas y sociales de orientación mucho más cualitativa. El problema es que se siga insistiendo en esta dirección.

 A este respecto es posible argumentar que el análisis de contenido al pretender las funciones de descripción, inferencial, psicométrica y predictiva compromete de manera importante su proceder y sus resultados al ojo de cientificista.

Estas funciones desde el punto de vista científico tradicional resultan muy problemáticas, pues a diferencia de su función descriptiva; la inferencial y predictiva son pretensiones arriesgadas que no deberían ser asumidas como tales; más bien las veo como asociaciones de carácter hipotético que con metodologías combinadas pueden conducir a verdaderas inferencias y predicciones, si se busca satisfacer la validez de la comunidad científica más tradicional, dado que se está tomando esta como referente. Sin embargo, no quiere decir que la inferencia y predicción no sean posibles solamente con el análisis de contenido, el problema es que, si se toma como referente las bases científicas tradicionales de las ciencias exactas, los resultados de estas inferencias y predicciones serán evaluados sobre tales bases y puede que no se les reconozca validez al análisis de contenido como metodología rigurosa.

El análisis de contenido cualitativo según Macnamara, como complemento del cuantitativo, examina la relación entre el texto y el significado probable para la audiencia, reconociendo que los textos de los medios son polisémicos, y trata de determinar el significado probable de los textos para las audiencias. Presta atención a la audiencia, los medios y los factores contextuales, no simplemente al texto. Es necesario señalar que para un análisis de contenido en comunicación de masas no se puede limitar a las estructuras y al mensaje mismo, porque tanto receptores como emisores tienen pretensiones diversificadas, que llenan de significado los mensajes, por ejemplo, una comunicación científica está cargada de presupuestos de validez y lleva consigo toda una narrativa muy específica, del mismo modo una comunicación de masas las tiene pero muy diferenciales y no necesariamente requiere ni pretende las del científico, por lo tanto lo cualitativo en el análisis de contenido es lo que en realidad le da fortaleza a esta metodología, dado que el componente cuantitativo en sí mismo no permite hacer declaraciones cualitativas de fondo.

Para Shoemaker y Reese (1996) citados por Macnamara, un enfoque humanista que estudia el contenido de los medios como un reflejo de la sociedad y la cultura, y un enfoque conductista que analiza el contenido de los medios con vistas a sus posibles efectos, también es útil para comprender cómo debe ser el análisis del contenido realizado en los medios. Porque ¿Cuál es la funcionalidad y utilidad del análisis de contenido? En la respuesta a la pregunta nos encontramos con que siempre hay pretensiones de direccionamiento como ingeniería social y usos ideológicos de la comunicación en las esferas publicitarias comerciales, políticas y gubernamentales, lo que obliga a que se requiera de profundizar en el desenmascaramiento de la comunicación y sacarlo a la consciencia de los actores que no siempre actúan en consciencia.

La relación de la computación y el análisis de contenido nos presenta el punto de contacto entre un mundo simbólicamente mediado, análisis cualitativo, y un mundo cuantificado en frecuencias y datos estadísticos de la comunicación. Las máquinas pueden indudablemente aportar al manejo de grandes volúmenes de datos e información documentada, los análisis cuantitativos de contenido quizá no fueran los mismos sin los softwares actuales, aun así, hay mucha distancia que recorrer para que las solas máquinas puedan hacer ese análisis de contenido dentro de la polisemia del lenguaje cotidiano y sus efectos. Y de esto se desprende la vigencia y potencia del análisis de contenido visto integralmente.

Las preocupaciones por la validez, la generalización y la replicabilidad dejan al descubierto que el análisis de contenido o sus tratadistas luchan por demostrar que es una metodología que si reúne los requisitos de rigurosidad de la ciencia más dura. Sin embargo, la replicabilidad no es una característica que solo pueda ser vista como determinante porque la aplicación puede ser replicable, de hecho cualquier proceso puede ser replicable, el asunto es que en términos científicos, la replicabilidad involucra que los resultados también sean replicables, y eso en términos de contenido simbólicamente mediado es contextualmente complejo y variado, de hecho el procedimiento puede ser replicable pero los resultados, lo normal es que no se repliquen porque varían de contexto a contexto, tiempo, lugares, estados de ánimo, y en general circunstancias que no se repiten y pueden ser únicas.  De ahí que las generalizaciones y las regularidades de los resultados son las que fundamentan las leyes de la ciencia y facilitan las predicciones, y tanto leyes como predicciones no están en la primera línea de propósitos del análisis de contenido.

A decir del autor citando a Newbold y Col (2002) “la lógica de deconstruir significados latentes, y privilegiarlos sobre los más evidentes y “manifiestos”, es cuestionable, ya que la audiencia puede no ver esta última dimensión; el análisis puede ser más grande que el texto. La tarea lleva mucho tiempo y, a menudo, nos dice lo que ya sabemos en un idioma que no entendemos.

Esto pone de manifiesto que los hechos son como son independientemente que las explicaciones se den o no se den de los mismos. La comunicación en acción con sus efectos en la conducta de las personas y comunidades es funcional y su carácter simbólico opera en su pragmática. ¿La necesidad de explicaciones a qué obedece realmente? Surge tal vez de la sospecha o de aparatos ideológicos que sugieren que las comunicaciones son distorsionadas y pretenden manipulación. Según esto hay una pretensión política de liberación por parte de investigadores de buscar develar la verdadera intención de los emisores y sus intereses. De ahí la relevancia que se le otorga a la semiología como herramienta que ayuda a exponer significados ideológicos y latentes en la superficie de los textos y las relaciones de poder que subyacen a los mismos.

En la selección de muestras desde el análisis cualitativos Miles y Huberman (1994) citados por Macnamara, la combinación de ejemplos típicos, des- confirmadores y excepcionales puede mostrar los límites de los datos e identificar el espectro de puntos de vista desconcentrando las observaciones a lo típico, a diferencia de los análisis cuantitativos que buscan la tendencia central. En comparación con el análisis cuantitativo la representatividad de las muestras no es relevante en las cualitativas, destaca esto las particularidades de cada dimensión y en especial la complejidad y tratamiento diferencial de la parte cualitativa, que no se puede perder de vista en los análisis de contenido en los medios de comunicación.

Los efectos de los medios de comunicación son realmente lo que en las sociedades modernas resulta de interés. Estos son los que promueven las investigaciones en dos sentidos: por un lado como ingeniería social para dirigir a los miembros hacia fines deseados y, por otro develar aparatos ideológicos que minan las libertades de las personas y orientan el consumo. En ambos casos está la pregunta sobre la ética en estos estudios. ¿Basta con sostener que se investiga por solo deseo de conocer? O ¿el investigador es responsable también de lo que se hace con sus hallazgos? ¿Qué tan desinteresado resulta el análisis de contenido en el plano no académico? ¿Y qué tan desinteresado lo es en el académico? Estas preguntas no solo son pertinentes para el análisis de contenido, sabemos históricamente que las mismas son extensibles a toda la actividad científica.

Trabajos citados

Frankfurt, H. (2005). On Bullshit. New Jersey: Princeton University Press.

Macnamara, J. (2005). Media content analysis: Its uses; benefits and best practice methodology. Asia Pacific Public Relations Journal, 6(1), 1-34.

Neuendorf, K. (2012). The content analysis. Guidebook. Los Angeles: Sage.

Colonialidad Contable Análisis computacional y cuantitativo utilizando Voyant Tools.

Henry Romero

La importancia de contar con recursos bibliográficos apropiados para el desarrollo de una investigación es evidente. Facilita la identificación temática y de énfasis cuantitativos en la literatura elegida, lo que evita trabajo dispendioso de filtrado de documentos. Para hace el análisis de contenido con Voyant Tools se seleccionó un corpus de 5 documentos de journals contables con orientación crítico – social. Con este ejercicio se buscó encontrar frecuencias de palabras, tendencias, relacionamiento y contexto de uso.

Corpus de documentos

Los textos seleccionados para conformar el corpus fueron:

Thomson, K. y Jones, J. (2016). Colonials in Camouage: Metonymy, mimicry and the reproduction of the colonial order in the age of diversity. Critical Perspectives on Accounting. Vol. 35, 58-75. doi.org/10.1016/j.cpa.2015.05.001

Lassoua, P. y Hopper, T. (2016).Government accounting reform in an ex-French African colony: The political economy of neocolonialism. Critical Perspectives on Accounting. Vol. 36, 39–57. doi.org/10.1016/j.cpa.2015.10.006

McKernan, J. (2007).Objectivity in accounting. Accounting, Organizations and Society. Accounting, Organizations and Society Vol. 32, 155–180. doi:10.1016/j.aos.2006.03.008

Alawattage, Ch. y Fernando, S. (2017). Postcoloniality in corporate social and environmental accountability. Accounting, Organizations and Society. Vol. 60, 1-20. doi.org/10.1016/j.aos.2017.07.002

Lassou, P., Hopper, T. Tsamenyi, M. y Murinde, V. (2019). Varieties of neo-colonialism: Government accounting reforms in Anglophone and Francophone Africa – Benin and Ghana compared. Critical Perspectives on Accounting. Vol. 65. 1-22. doi.org/10.1016/j.cpa.2019.01.003

Interpretación de la Información

Las tendencias en el análisis de este corpus lo que muestra es que el término accounting es el de mayor frecuencia y se ubica por encima de todos los demás con excepción del término global en el artículo de poscolonialidad. La frecuencia de accounting se explica porque es el término que demarca disciplinarmente a los artículos. A continuación, se muestra la gráfica.

Se evidencia una tendencia en términos de naturaleza política y social en 4 de los 5 artículos dado que la línea editorial de los journals es crítico – social. Aun cuando hay un texto de naturaleza epistemológica que diverge de tal tendencia. Esto se corrobora con el término truth y reality, que son muy frecuentes en el texto epistemológico ubicado en el centro de la gráfica.

Como patrones se puede observar que los términos local, development, government, y political presentan una vinculación dado que crece su frecuencia en la misma dirección, es decir que en los textos donde es más frecuente government los demás términos también tienden a aumentar su frecuencia y lo mismo en la dirección contraria.

Las palabras más utilizadas en la representación cirrus son accounting, government, development, colonial, global, local. El contexto de estas palabras en general es un contexto crítico – político y de relaciones de poder. En forma más detallada es mucho más difícil precisar un concepto del contexto más allá de las frases antecedentes y subsecuentes.

Frecuencia de Palabras más representativas

Accounting                 907

Government               298

Local                          212

Global                        204

Development              199

World                          198

Political                      195

Social                          180

Colonial                      178

Truth                          137

Reality                        133

Link de análisis

https://voyant-tools.org/?corpus=efb31b080fd5a234cfd5a6ce15c084b4&categories=1acec4ccccf68bda78711ba3a3dd83f6&stopList=stop.en.taporware.txt&panels=corpusterms,reader,trends,summary,correlations

Observación Final

Voyant Tools muestra una información valiosa desde el punto de vista cuantitativo que ha permitido identificar tendencia en las relaciones de términos y facilita una comprensión del contexto de uso. También facilita hacer análisis por cada texto y ver la relevancia que puede tener cada término en cada artículo. Este análisis puede facilitar la identificación de literatura direccionada hacia la misma dirección de un problema en particular y a su vez descartar la que tenga poca relación.  

Módulo 3 – Simulación basada de Agentes

Semana 11 (13.4.2020)

  • Bases ontológicas y epistemológicas, formas de razonamiento científico, Ciencias Sociales Generativas]

Semana 12 (20.4.2020)

  • Introducción al diseño de modelos de agentes. ¿Qué es un agente? Definición de atributos y reglas de interacción, heurísticas y reglas de comportamiento, proceso de formalización de reglas, ejemplo de segregación espacial (modelo de Schelling), protocolo ODD. 

Semana 13 (27.4.2020)

  • Ejemplos de trabajos de investigación (diversidad y homofilia en resolución de problemas en grupo, patrones de comunicación y teoría del apego)

Análisis de datos enlace humedales – congresistas

La siguiente investigación parte del grupo de congresistas identificado en el Bin Congresistas2019, que, de formas diversas, construyen una interacción discursiva con la condición humedales, haciendo referencia a los espejos de agua categorizados e identificados en Bogotá. A partir de este acercamiento se pueden analizar posturas políticas, apropiación del tema, formas de interacción con el mismo y si se buscan incidencias sobre el territorio, más allá del discurso.

Para este caso, la investigación analizará las formas de interacción de los congresistas en la red social Tweeter, frente al tema específico “humedales”. A partir de dicho análisis se propone confrontar la información, partiendo de los picos de interacción, con las noticias exclusivas del día identificado, con la temática en cuestión. De esta forma, analizar si la información noticiosa es una variable que altera los flujos de información. Finalmente, intentar reconocer los intereses políticos que se vislumbran por posturas políticas en reflexión del medio ambiente, en específico, los humedales

DATOS

 

Fecha 28/08/2019 – 02/03/2010
Tweets 141
Pico de interacción: 20- 31 de enero Modificación legislativa de Humedal El Burro
Pico de interacción 3 de febrero Incendio forestal
Categorización manual de tweets 54% denuncia
  26, 52% información
  1,1% indirecta
  19% campaña política
Afinidad política 94% centro izquierda – izquierda
  6% centro derecha

De esta forma las preguntas posibles que se plantean son:

  1. ¿Existen afinidades políticas de partido que se puedan encontrar frente a la categorización de humedales?
  2. ¿Qué tipo de información circula y comparten los congresistas alrededor de los humedales?
  3. ¿Es posible identificar variables que aumenten el ruido de información partiendo de los medios de comunicación?
  4. Frente a las problemáticas de los humedales ¿se puede evidenciar postura clara en las fuentes de información, aparte de la red social Twitter?

Variables posibles

  1. Medios de comunicación
  2. Eventos globales
  3. Afinidad política
  4. Normativa y Legislación