Taller de codificado Taguette – MFC

Por: Mario Cuéllar

El ejercicio realizado de codificación a través de la app Taguette es de gran utilidad, ya que me permitió hacer una lectura atenta, y espero que sea profunda de mi parte, de una tesis doctoral sobre competencias informacionales. Quedo convencido de la potencia al utilizar este tipo de herramientas, ya que permite descubrir patrones intertextuales al revisar la literatura asociada al tema de investigación. De hecho, me encuentro en la construcción del Estado del Arte, por lo que esta herramienta me permite realizar categorías y relacionarlas con preguntas cómo, cuándo, dónde, por qué y quienes han tratado de resolver el problema de mi investigación, determinar su actualización y verificar si el tema sigue vigente, así como descubrir hasta dónde ha avanzado en el conocimiento validado.

A continuación, bajo el esquema de la app Taguette, comparto las principales categorías identificadas a través del siguiente enlace:

https://drive.google.com/file/d/1oBtdwjGDmVetGA0YzojjqL5v9_L5TfZP/view?usp=sharing

Taller de codificado — Sergio

Para este ejercicio hice una relectura y ajusté la codificación que ya había hecho a dos representantes de comunidades de humanidades digitales en latinoamérica y añadí y codifiqué una entrevista más. Podría decir que los métodos de codificado que usé fueron una mezcla de descriptivos, in vivo y de causalidad. Creo que el proceso de relectura y refinamiento de los códigos fue muy útil porque me permitió ver con más claridad elementos discursivos que no eran tan evidentes durante el primer proceso de codificado. Este ejercicio me servirá tanto para mi proyecto final como para mi proyecto de investigación del doctorado. En la relectura pude ver que más que una dicotomía entre comunidades de prácticas y horizontes epistemológicos, lo que hay en la comunidad de prácticas es una serie de tensiones que opernan en distintos ejes. Esos ejes están representados en los códigos que terminé anotando y que se pueden ver en la tabla a continuación. Sin embargo, las distinciones entre la práctica y la conceptualización siguen siendo relevantes a grandes rasgos, por ese motivo, las usé como categorías temáticas.

TEMACATEGORÍACÓDIGODESCRIPCIÓNFREQ.
El campo en la prácticaExperiencia personal en las HDFormación, trayectoria e intereses participanteMenciones a la formación académica o a los intereses investigativos o personales de las participantes13
El campo en la conceptualizaciónReflexión sobre el humanismoParticularidades del humanismo en LatinoaméricaReflexiones hechas por las participantes entrevistadas a las diferencias, caracterizaciones y particularidades de las humanidades (en general) en Latinoamérica. Especialmente reflexiones con respecto al por qué son como son las humanidades en Latinoamérica en cuanto a su historia y sus fundamentos epistemológicos20
Datos generalesDescriptivoNombres propiosCódigo descriptivo con menciones a nombres propios hechas por las participantes entrevistadas42
Datos generalesDescriptivoProyectos, instituciones, hitosCódigo descriptivo con menciones a proyectos relevantes para las humanidades digitales, instituciones que han conformado la comunidad o hitos históricos en el desarrollo del campo en Latinoamérica33
El campo en la prácticaExperiencia personal en las HDAdopción humanidades digitalesReferencias en cuanto a la adopción del término “humanidades digitales” en las prácticas de las participantes y sus comunidades, y referencias a contactos con comunidades de prácticas que ya hacían uso del término o que sirvieron como inspiración14
El campo en la prácticaConformación de la comunidadComunidad de prácticas y su caracterizaciónReferencias a la comunidad de prácticas de las humanidades digitales en Latinoamérica, sus intereses y sus limitaciones. Caracterizaciones de los participantes y las instituciones involucradas en la comunidad Latinoamericana38
El campo en la prácticaConformación de la comunidadComunidades desconectadasReferencias a comunidades, prácticas, disciplinas que no se han querido o no han podido integrar al campo de las humanidades digitales, o se consideran separadas de las humanidades digitales26
El campo en la conceptualizaciónReflexión epistemológicaReflexión aproximación epistémicaReflexiones con respecto a la construcción de una aproximación epistémica concreta con respecto a las humanidades digitales desde Latinoamérica. Referencias a la necesidad de producir teorías situadas. Conceptualizaciones que definen o especifican las humanidades digitales, reflexiones con respecto a sus compromisos epistémicos20
El campo en la conceptualizaciónReflexión epistemológicaProblematización de las humanidadesReflexiones al respecto de la definición de las humanidades, su condición civilizatoria, sus prácticas académicas, sus formas de exclusión, sus formas particulares de operar, su historia, sus transformaciones, etc.23
El campo en la prácticaConformación de la comunidadInstitucionalización y disciplinasReferencias a posibles oportunidades o problemas que puede encontrar el campo de las humanidades digitales en cuanto a su validación institucional, su reconocimiento o la consecución de apoyo. Además, referencias al lugar de las humanidades digitales frente a las diferenciaciones disciplinares propias de la academia32
El campo en la prácticaConformación de la comunidadNecesidades y problemas del campo hdReferencias a problemas concretos o necesidades que debe abordar el campo de las humanidades digitales, en Latinoamérica y en general, para consolidarse y desarrollarse34
El campo en la prácticaConformación de la comunidadEstrategias comunitariasReferencias a estrategias que se hayan tomado desde la comunidad local o general de humanidades digitales para fortalecerse e integrar a más personas o grupos, o posibles ideas para hacer más fuerte a la comunidad25
El campo en la conceptualizaciónReflexión epistemológicaConceptos hd de interés en LatinoaméricaConceptos que las participantes consideran que definen el horizonte epistemológico y los intereses de las humanidades digitales en Latinoamérica. Pueden ser referencias directas a los conceptos o ejemplos de proyectos en los que se apliquen los conceptos33
El campo en la conceptualizaciónDiferencias. Carencias y oportunidadesInfraestructurasEjemplos o reflexiones de las participantes a oportunidades o carencias en términos de infraestructuras, vistas desde un punto de vista amplio (infraestructuras físicas, de conocimiento, de circulación de la información, de desarrollo tecnológico, etc.)17
El campo en la conceptualizaciónReflexión epistemológicaEl valor de lo digitalReflexiones de las participantes con respecto a qué es lo que puede aportar “lo digital” a lo humanístico o a las comunidades en las que se insertan las participantes8
El campo en la conceptualizaciónDiferencias. Carencias y oportunidadesEl centro y las márgenesComparaciones entre el estado de las humanidades digitales en contextos hegemónicos (como el europeo o el estadounidense) en comparación con América Latina o el sur global en general, pero también reflexiones sobre pequeñas márgenes en contextos más epecíficos (márgenes dentro de lo que se considera central, diferencias regionales, etc.)25
El campo en la conceptualizaciónReflexión epistemológicaEl valor de las humanidadesReflexiones de las participantes con respecto al lugar y al valor de las humanidades y el humanismo3

Taller de codificado – Juan Carlos Torres L.

Debo decir que es un ejercicio muy interesante el de usar Taguette. Si bien ya había leído los dos textos que trabajé, el hecho de codificar implica prestar especial atención a lo que se está leyendo en función de saber si cada parte aplica a un código o a otro, encontrando de manera frecuente que el mismo texto va mostrando elementos que no encajan con ninguno de los códigos establecidos, por lo que es necesario crear uno nuevo. Debo decir que no fue tan productiva la elección de textos que hice, ya que una es una descripción muy técnica del paisaje, sin embargo, a pesar de ello no dejan de aparecer referencias a las difíciles condiciones que tienen que vivir las personas rurales en nuestro país, aquellas que podríamos considerar como violencia estructural.

Este ejercicio de codificación ayuda a evidenciar o ratifica una idea que ya había venido trabajando, ninguna migración de una persona rural es completamente voluntaria y siempre está impulsada por diferentes formas de violencia que se ejercen contra él, además, que dicha migración, cuanto menos voluntaria sea, mayor es su efecto sobre la capacidad de agencia que puede tener una persona rural, quitándoles, con ello, sus capacidades para satisfacer sus propias necesidades.

Adicionalmente, fue posible evidenciar, sobre todo en los pocos testimonios que tienen los textos, que la migración, memoria, territorio e identidad están estrechamente ligados, pero, además, que hay un componente sensorial en cada uno de ellos, que, por ejemplo, en la idea de paraíso se puede ver con mayor claridad, pues la forma de recordar el territorio propio es de esa manera y, además, los elementos que constituyen el paraíso son necesariamente sensoriales.

Tabla 1

Libro de códigos

CODIFICADO

  • ¿Qué ventajas y desventajas encuentran en el proceso de codificado realizado en el Análisis de Contenido (AC) cualitativo y el realizado en el AC cuantitativo? 

Como ventaja principal encuentro que el Análisis de Contenido (AC) permite la multimodalidad, dando acceso a una gran cantidad de formatos y formas de construir e intercambiar los contenidos, significados y mensajes, que hacen parte de los discursos en general.  Desde el texto hasta el diseño, las imágenes estáticas y en movimiento, hasta la metáfora, entre muchos otros símbolos o construcciones simbólicas, pueden ser analizados a partir de esta metodología tomando sus elementos como pistas y su contexto como entorno que les da sentido y significado a estas pistas.

Por esto, para el AC el contexto es fundamental ya que le da sentido a las categorías o códigos utilizados y a la significación que se les otorga. Según Andréu Abela “En ese último sentido Krippendorff (1990, p 28) define el análisis de contenido como “una técnica de investigación destinada a formular, a partir de ciertos datos, inferencias reproductibles y válidas que puedan aplicarse a su contexto”. El elemento que añade esta definición es el “contexto” como marco de referencias donde se desarrollan los mensajes y los significados. Con lo cual cualquier análisis de contenido debe realizarse en relación con el contexto de los datos y justificarse en función de éste. En definitiva, el investigador social puede reconocer el significado de un acto situándolo dentro del contexto social de la situación en la que ocurrió.” (2000).  

Es una técnica que podría tener como desventaja que se dedica a las inferencias a partir de códigos creados según cada investigación y soportados en análisis de contextos que pueden tener múltiples interpretaciones. Sin embargo, los objetos de estudio son tan volátiles que muchas veces esa flexibilidad metodológica pasa de ser un problema a una ventaja.

Para asumir los retos de hablar con la ciencia, se refuerza con análisis múltiples de otras metodologías que le permiten generar resultados en un lenguaje común. “No obstante, los mejores análisis de contenido actuales utilizan, en realidad, la técnica de la “triangulación” en la que se combinan los métodos de estadística multivariante (análisis de correspondencias múltiples, análisis factoriales…) con las técnicas cualitativas más sutiles (análisis de redes semánticas, análisis de intensidad y árboles jerárquicos, …). De este modo, la tecnología del análisis de contenido combina diferentes métodos de análisis tenidos habitualmente como antitéticos.”

Finalmente, en relación a las prácticas cualitativas o cuantitativas, se hace referencia a sus facultades intrínsecas, pero ambas pueden ser usadas en esta metodología, “Siguiendo a Olabuenga (1996) la estrategia de una investigación cualitativa va orientada a descubrir, captar y comprender una teoría, una explicación, un significado. Por el contrario, la de una investigación cualitativa va más orientada a contrastar, comprobar, demostrar la existencia de una teoría previamente formulada… La investigación cualitativa impone un contexto de descubrimiento y exploración mientras que la investigación cuantitativa lo impone de comprobación y contraste.”  

  • ¿Qué tipo de codificado consideran puede ser aplicado en el proyecto de investigación en el que vienen trabajando? ¿Por qué? 

Mi proyecto de tesis tiene como meta fundamental la reconstrucción de conceptos específicos y finalmente la reconstrucción de un marco teórico, por lo que el codificado será central. En una primera instancia, se usará para ubicar en los discursos oficiales los conceptos que estamos poniendo bajo lupa y lograr ver la frecuencia, tipos de uso, contextos donde se usan, entre otros aspectos centrales para analizar.

Por otro lado, también se han podido hacer codificaciones en las conversaciones tenidas con mujeres sujeto de estudio de este proyecto. Las palabras que usan las mujeres para referirse al “éxito” o a la economía, las frases que se hacen para hablar de estos temas y la manera y el contexto en que se dicen, se tornan fundamentales, ya que, por ejemplo, lo sensitivo y lo sentimental, son claves para entender esta nueva forma de ver lo económico. Es así que esta reconstrucción de conceptos tendrá como una de las herramientas de análisis el estudio del discurso tanto institucional como de las mujeres que nos darán las claves para construir esta nueva propuesta.

La decisión de ir a pie o en vehículo cuando hacemos un largo viaje.  Una reflexión sobre el uso de programas para analizar un contenido

Entrada Luis Ospina Raigosa

De acuerdo a los recursos bibliográficos sugeridos para nuestra sesión sobre el Análisis de contenido, puedo definir el análisis de contenido como el conjunto de técnica de investigación social que son útiles para aproximarse a distintos tipos de contenidos (visuales, textuales, multimediales, multimodales etc). Uno de los propósitos esenciales, que he podido validar desde la experiencia, tiene que ver con la capacidad de formular inferencias dando cuenta de forma sistemática de las características de un texto. 

Una definición útil de los análisis de contenido los propone como “el conjunto de técnicas de análisis de las comunicaciones tendentes a obtener indicadores (cuantitativos o no) por procedimientos sistemáticos y objetivos de descripción del contenido de los mensajes permitiendo la inferencia de conocimientos relativos a las condiciones de producción/recepción (contexto social) de estos mensajes” (Bardin 1996 p. 32 citado por Andreu Abela, 2000 p 3).La inferencia es el proceso por el cual se derivan conclusiones partiendo de premisas. Las inferencias pretenden dar cuenta de las dimensiones profundas de un discurso que no son directamente observables. 

Un elemento importante de los Análisis de contenido radica en el uso del computador como instrumento para el procesamiento de datos. Los distintos software y programas tendientes al procesamiento de datos alfabéticos facilitan el manejo de grandes volúmenes de información, aportan al proceso de interpretación (por ejemplo, con la graficación de resultados como lo vimos con Gephi) y permiten la articulación con categorías teóricas externas al contenidos objeto de análisis, entre otras. 

Analizar un contenido implica codificarlo. De acuerdo con Andreu Abela (2000) “La codificación consiste en una transformación mediante reglas precisas de los datos brutos del texto. Esta transformación o descomposición del texto permite su representación en índices numéricos o alfabéticos. Como dice Hostil (1969) la codificación es el proceso por el que los datos brutos se transforman sistemáticamente en unidades que permiten una descripción precisa de las características de su contenido” (Andreu Abela, 2000 p14). 

En este sentido, los aportes de los distintos softwares para el codificado de un análisis de contenido se convierten en una herramienta convencional con resultados evidentes. Para responder a la pregunta sobre las ventajas y desventajas que existen en el proceso de codificado cuantitativos y cualitativos, es importante enmarcarlo en la manera como se piensa procesar el contenido objeto de análisis. En una ocasión, en el marco de un estudio para analizar columnas de opinión, pregunté por la pertinencia de procesar los contenidos con un programa o hacerlo de forma manual, la respuesta me resulta muy esclarecedora: 

“Esa decisión es la misma que haces cuando emprendes un viaje muy largo y te preguntas si lo vas a hacer a pie o en un vehículo, si usas un vehículo llegarás más rápido, usar un programa es montarse en un vehículo para llegar rápido a tu destino”. En este orden de ideas, el aprovechamiento del computador para el procesamiento de datos lo entiendo como una necesidad.

En este sentido el codificado que voy a aplicar para la ejecución del Estudio Crítico de discurso multimodal del documental “Galu Dugbis. La memoria de las abuelas” de la teleserie “El buen vivir” es un codificado que apropia herramientas de análisis estadístico textual para luego realizar unas inferencias sobre los datos procesados. El interés por comprender –y no solamente describir o cuantificar– el discurso del documental mediante un proceso de interpretación denota un rasgo cualitativo que se sirve de herramientas estadístico-textuales para llegar a su destino. La combinación de las dos perspectivas permite el conocimiento de la realidad investigada desde puntos de vista complementarios que enriquecen el análisis y profundizan la comprensión del discurso estudiado.

Fin de la entrada.

ANÁLISIS DE DATOS CUALITATIVOS Y PROCESOS DE CODIFICADO / MFC

Por: Mario Cuéllar

¿Qué ventajas y desventajas encuentran en el proceso de codificado realizado en el Análisis de Contenido (AC) cualitativo y el realizado en el AC cuantitativo?

La codificación implica no solo un análisis del contenido, sino también de actos y operaciones. Una desventaja que encuentro en el proceso de codificado, es pretender que solo con el acto de codificar, el análisis se encuentre realizado. Esta acción podría caer en el campo de la instrumentalización.

Contrario a lo anterior, la ventaja que encuentro del AC es que permite una comprensión a través de re-creación o repetición del proceso de creación del texto (Berelson, Krippendorff y Laurence Bardin citados por Andréu Abela, J (2000)), en el que como investigador busco interpretar, identificar y congeniar con el autor de la información analizada. En este sentido, el AC tiene un carácter objetivo, pues no consiste en entender a otro sino en entenderse con otro sobre algo. Así, por ejemplo, al analizar un texto sobre competencias informacionales no sólo busco hacer un ejercicio de comprensión sintáctica del texto, sino que, como texto escrito, la información a analizar es un acontecimiento que se ubica en un tiempo y en un lugar determinado (contexto) que, sin lugar a dudas, contiene un sesgo que como investigador debo develar.

Esto significa que un AC ya sea cualitativo o cuantitativo me ubica como investigador en una comprensión de contexto y de pretexto, por lo que el análisis requiere de categorías o pre-juicios que sirvan como información previa. No necesariamente la codificación puede ser la mas acertada (el AC es ante todo un ejercicio de aproximación), pero si es una forma de ver una realidad a la que me estoy aproximando. De ahí que una de las ventajas significativas del AC es que a través de la codificación se pueden dar condiciones para comprender y abrir posibilidades al corpus de la investigación.  

Finalmente, comprender puede ser entendida como una vinculación del texto e investigador por medio de la codificación, significando así una comprensión amplia del intérprete frente al texto. Por supuesto, este ejercicio no presume trasladarse a la época del autor, sino realizar un análisis más amplio. De esta manera, la codificación permitirá que el análisis, ya sea cualitativo o cuantitativo, se pueda estructurar como un dialogo prioritariamente lingüístico (corpus), ya que el lenguaje es el medio por el cual se avanza, o se progresa, según sea la naturaleza de la investigación.

¿Qué tipo de codificado consideran puede ser aplicado en el proyecto de investigación en el que vienen trabajando? ¿Por qué?

En mi investigación podría acudir a las dos metodologías (cualitativo y cuantitativo). Sin embargo, la naturaleza de la investigación hace que me encuentre interesado en contar con un AC de corte cualitativo, dado que las competencias informacionales (tema de investigación) tienen unos fundamentos normativos dentro del marco de la educación. Así pues, la codificación podría conducirme hacia una acción comunicativa, en la cual el establecimiento de un corpus se encamine a un acuerdo basado en argumentaciones racionales, es decir, en el discurso que faculta a las competencias informacionales como conjunto de habilidades en un saber específico.

Sumando a esto, lo cualitativo como camino para llegar a un fin, o una manera de hacer las cosas, puede conducir a la investigación hacia el concepto de competencia informacional mas definido, más determinado y específico. De este modo, el codificado permitirá hacer una interpretación de los ámbitos de las competencias informacionales y determinar lo que racionalmente debe o no debe suceder, es decir, extraer consecuencias normativas.  

Por último, la codificación de carácter cualitativo permitirá realizar una descripción de las estructuras culturales, de normas y valores que rodean el tema de las competencias informacionales. Con esto la investigación tendrá validez y fundamento, ya que la naturaleza del conocimiento sobre las competencias informacionales se ancla al análisis crítico, a las afirmaciones razonables y a los actos de significación puestos en categorías, teorías, acciones y métodos de investigación.

Lecturas:

Codificado emergente

Caminante no hay camino se hace el camino al andar”. Antonio Machado

Por John V.

En las investigaciones es indispensable establecer previamente categorías de análisis claras, porque estas cualidades configuran una decisión o una serie de decisiones sobre el enfoque de la investigación. El propósito de la investigación determina su naturaleza (cualitativa, cuantitativa o mixta). Cada investigación sea cualitativa o cuantitativa, como en la vida misma, toma un rumbo diferente. Sin embargo, hay pasos y procesos que no se pueden obviar en un análisis de contenido. 

Por ejemplo, cuando se realiza una investigación sobre las prácticas lectoras en la escuela se parte de procedimientos jerárquicos. Existen decisiones de fondo que gestionan la búsqueda y selección de los datos en los textos y los contextos. En primera medida, se puede conformar una entrevista semiestructurada para recopilar dichos datos. Entonces, previamente se han preestablecido una suerte de categorías que derivan en preguntas jerarquizadas o aleatorias. Dichas preguntas corresponden a categorías y concepciones a priori

Posteriormente, se unifican los datos tomados de los discursos de los entrevistados. Es el proceso de codificado el que jugará un papel determinante en el análisis de los datos. Entonces, ¿a qué nos referimos con codificado? Siguiendo a Molton (2015) es la “abstracción conceptual de datos”. El codificado consiste en delimitar con etiquetas simbólicas discursos, eventos y materiales particularmente clasificados.

Así se llega a los problemas que enfrenta un investigador al momento de codificar sus datos. Tres son los “errores” comunes que enuncia Elliot, a saber: Cantidad de códigos, imprecisión en el codificado y codificación sesgada. Las trampas en el codificado de los datos enfrentan tensiones entre la información preestablecida y la información emergente. Creemos que el proceso de codificado es un paso en el análisis que se da necesariamente sobre las tensiones de lo a priori y lo a posteriori de la investigación. Porque los hallazgos de la investigación surgen en la confrontación y el reajuste de la codificación de los datos. 

Retomemos el ejemplo anterior, sobre las prácticas lectoras y escritoras, allí aparecerán discursos que se agruparan bajo el criterio de patrones de repetición, configurando la base estructural del análisis pero el investigador no debe deshacerse de la capacidad de sorpresa o la habilidad para dejarse atrapar por los “datos latentes”, discursos que emergen como el factor sorpresivo en la investigación. 

La inferencia en la codificación de la información es fundamental porque permite pensar estrategias de meta codificación sobre la base de simbologías emergentes en los datos. La inferencia consiste en este caso en explicar las relaciones de los contenidos analizados con sus respectivos contextos. 

Incluso, podemos pensar en un Análisis de Contenido textual sobre la manera como el discurso político ha hilvanado (agenciado) propuestas sobre lectura y escritura en la ciudad. La unidad de análisis serían aquellas políticas referidas a la intervención de gestores y promotores de lectura y escritura. Sin embargo, es necesario pasar de un análisis de redes semánticas a un análisis de redes; para aventar posibles emergencias y tensiones entre el texto, sus relaciones y los contextos de intervención, pues es posible que aparezcan ausencias sobre la presencia cuantitativa de los datos analizados. 

Otra de las ventajas en el análisis de contenido recae sobre las reglas de análisis; ya que el material analizado (textual, material o iconográfico) va creando “reglas y procedimientos que permiten dividir el material en unidades de análisis más interpretables” Andréu Abela, J (2000). Es así que, consideramos que las desventajas en la implementación de análisis de contenido es considerar que los datos pertenecen a una sola dimensión de análisis, una dimensión cuantitativa separada de la realidad. También, pensar que lo cualitativo avanza separado de la cuantificación de los datos (codificación numérica). Los dos espacios son posibles en la investigación, no de manera simétrica, pero sí como posibles vías constitutivas de encuentro y desencuentros sobre las realidades a investigar. 

En la investigación propia que se adelanta, consideramos que se puede implementar un análisis semántico; ya que se basa en los modelos de relaciones, la extensión de los términos y los conceptos. Dicho análisis permite abordar categorías como: concepciones de lectura y escritura, estrategias de lectura y escritura. También, es posible pensar en el estudio semántico sobre la dimensión política de la lectura y la escritura. 

Posiblemente, desde el análisis semántico se pueda proyectar un análisis de redes. Las redes que configuran la realización de una política pública sobre lectura y escritura o su posible resistencia en las comunidades locales. 

Bibliografía 

Elliott, V. (2018). Thinking about the Coding Process in Qualitative Data Analysis. The Qualitative Report, 23(11), 2850-2861. 

Saldaña, J. (2016). “Capítulo 1. Introducción al código y a la codificación”. The Coding Manual for Qualitative Researchers (3ª edición) Londres, Reino Unido: Sage.

Andréu Abela, J (2000). Las técnicas de análisis de contenido: una revisión actualizada. Fundación Centro Estudios Andaluces, Universidad de Granada, v.10, n. 2, p. 1-34, 2000.

Codificado – Juan Carlos Torres

Luego de leer el texto de Saldana (2016) es difícil mencionar una ventaja que no haya dicho el autor o una desventaja que no haya desmentido. En primer lugar, las ventajas pasan por considerar la codificación un ejercicio flexible que depende del autor que haga la codificación y no un proceso mecánico y objetivo del cual se desprendan verdades. Los autores en los textos son bastante claros en considerar que el proceso, al depender en muchos momentos del criterio del investigador, da como resultado, más bien, su lectura del fenómeno, la cual no es superficial por ser relativa a él, por el contrario, es profunda, compleja y completa si el proceso se hace con rigor. Con esto, no se pone entonces en entredicho la validez de los ejercicios de análisis, sino que se abre la posibilidad de considerarlos perfectibles, o reescribibles, si es que esa palabra pueda ser la más adecuada. Reinterpretar es reorganizar o modificar la mirada, pero no invalidar lo anterior. Contrario a lo que se piensa, cuando la codificación se hace desde ese punto de vista, entonces nos referimos más bien a un ejercicio profundo, lleno de posibilidades que ayuda a analizar la información desde varias perspectivas y a cuestionar, incluso, los posibles prejuicios que acompañan al investigador antes de enfrentarse a los datos. Además, al ser pensado como un proceso “artesanal”, como lo define Saldana, entonces debemos suponer la importancia que tiene el aporte realizado por el investigador desde su creatividad, desde su capacidad para ver lo datos con otro punto de vista. Los datos, entonces, son como la arcilla, que puede tomar muchas formas, las cuales depende de los preconceptos que tenga el autor. A esto Deleuze (1987) lo llamaría “montaje” como aquel que se encarga de darle forma y materialidad al plano de inmanencia que no es más que una idea que pasa de ser virtual para volverse actual. Así, lo datos son ese virtual que se actualiza (o concretiza) en el momento en el que se codifican.

La desventaja que podría ver no está en el ejercicio de codificación en sí, sino en su necesidad de hacerlo confiable. Cuando se habla de la confiabilidad de la codificación aparece la idea de un segundo investigador y de la variabilidad en el tiempo de los análisis que haga el primero. En ese sentido, mientras menor sea la variación, tanto del ejercicio de un investigador a otro como de los análisis de un mismo investigador en diferentes momentos, mayor es la confiabilidad del ejercicio. Así, da la impresión de que las codificaciones, sujetas por la confiabilidad, no pueden cambiar de manera significativa en poco tiempo o de un sujeto a otro, por lo que parece que cambiar de perspectiva, de formas de pensamiento o de aproximaciones a los datos, no es una tarea sencilla o fácil de concebir. Desde mi punto de vista, la confiabilidad condiciona esa variabilidad que se muestra como una ventaja de la codificación, ya que el investigador, en aras de la confiabilidad, no podrá introducir o hacer relecturas significativas. En ese orden de ideas, podría ser normal que un investigador termine codificando bajo determinados prejuicios o con presiones concretas que vienen de las tradiciones investigativas y teóricas que surgen, seguramente, de las revisiones que haga del Estado del arte, incluso de los puntos de vista o los análisis que tienen mayor protagonismo en los eventos académicos y las publicaciones mejor ranqueadas. Los criterios de confiabilidad, entonces, deberían reconsiderarse.

Por otro lado, mis ejercicios específicos de investigación, tanto el de este semestre como el de la tesis, requieren de una codificación y categorización muy claras. Si bien lo que busco es una forma diferente de analizar la migración que no caiga en los estudios demográficos tradicionales, si hay algo que es evidente, y es que la tradición de esos estudios ha permitido crear unos parámetros muy sólidos para el análisis a los cuales parece necesario recurrir. No se trata de volver a hacerlos, sino de pensar esas mismas categorías en otros contextos. Por ejemplo, la idea de tensiones migratorias, pero vistas en el cuerpo, no en datos demográficos; el concepto de identidad, ya no expresada en lo que se dice de sí mismo, sino en la relación con el territorio a través de lo sensorial; el desprendimiento de su territorio influido por factores externos, ahora pensado en la manera en que ello se refleja en acciones específicas, no en palabras. En mi caso particular, considero que la codificación es necesaria, pero esta debe cambiar para hacerse más amplia y permitir incluir en ellas otros datos, de naturalezas diferentes. Lo que se vuelve un poco complejo, es la manera en que esos datos pueden crear patrones o la manera de sistematizarlos para su análisis. Esto en los estudios tradicionales se conoce como estudio de variables, las cuales son datos cuantitativos que se cruzan, se solapan y se condicionan entre sí, por lo que el reto está en transformar eso cuantitativo en un lenguaje cualitativo y luego en una nueva y diferente codificación cualitativa.

Análisis discursivo de los Planes de Lectura y Escritura 2011-2021. By John Vargas.

La escuela, las bibliotecas, las comunidades y diferentes contextos reciben no solamente los discursos sobre la manera como se debe pensar y dirigir la lectura y la escritura, sino también materiales que se relacionan con dichas políticas públicas. Existe un conjunto de políticas que configuran prácticas y modos de ser de la literatura en distintos lugares de Colombia. La intención con esta propuesta de indagación es analizar el discurso y las concepciones que agencian la política pública sobre la lectura y la escritura. Específicamente, las acciones se enfocarán en recopilar un corpus de textos propuestos por el Ministerio de Educación que van del 2011 al 2021.

Los documentos de las políticas públicas se tomarán del portal web del Ministerio de Educación Nacional. Allí hay un repositorio bastante amplio para configurar un corpus de textos alrededor de los términos de búsqueda sobre políticas públicas para la lectura y la escritura. De la mano con lo anterior, se plantea la necesidad de vincular el análisis discursivo y textual con un programa de análisis computacional, como Léxico y Anconc. Inclusive, se pretende relacionar el análisis discursivo con los materiales derivados de las políticas para realizar un estudio multimodal.

Cabe aclarar que la investigación no pretende consolidar un corpus grande por cada insumo, sino construir un análisis multimodal que nos aporte elementos para leer el contexto y problematizarlo desde referentes teóricos y metodológicos críticos. La vinculación de elementos de análisis multimodal y de analizadores textuales digitales es fundamental para refinar los datos y vislumbrar las presencias, así como las ausencias en los discursos y las prácticas de lectura y escritura que promueve el Ministerio de Educación Nacional.

Programas a usar:

Lex&co

Ancont: https://www.laurenceanthony.net/software/antconc/

Pregunta: ¿Qué nos dice el estudio computacional de los documentos derivados de los Planes Nacionales de Lectura y Escritura sobre sus propias prácticas y concepciones?

Propósito: Cartografiar la materialidad sígnica de las concepciones de lectura y escritura en los Planes de Lectura y Escritura 2011-2021.  

Objetivos: Analizar los términos y los conceptos sobre la lectura y la escritura en los Planes de Lectura y Escritura entre 2011-2021 (MEN).

Estudiar los términos y los conceptos referidos a la lectura y la escritura en los Planes de Lectura y Escritura (2011-2021).

Entender las relaciones entre la cultura material, los discursos y las prácticas de enseñanza de la lectura y la escritura en la escuela.

Señalar las concepciones que contienen los Planes de Lectura y Escritura oficiales.  

Visualizar las tendencias oficiales sobre las concepciones en la lectura y la escritura.

Ventajas y desventajas de los análisis de contenido cuantitativos y cualitativos — Sergio

Aunque usan el mismo objeto de estudio: un conjunto de textos en el sentido amplio (que puede abarcar textos escritos, imágenes, audio, video…), el método de análisis de contenido cuantitativo y el método de análisis de contenido por medio de codificación cualitativa parten de premisas diferentes para desarrollar sus metodologías: mientras que el primero supone un sistema de reglas sistemáticas (es decir que abarcan por completo el corpus posible), replicables con exactitud y con resultados determinísticos; el segundo supone un proceso más ponderado de interpretación inferencial y abductiva, en la que el investigador codifica los textos de su corpus de acuerdo a diferentes estrategias como la codificación exploratoria (más que todo intuitiva), la codificación in vivo (usando los mismos términos que los participantes), la codificación descriptiva (que anota metódicamente pequeños términos), etc.

La principal ventaja del análisis de contenido cuantitativo es que, gracias a sus reglas “objetivas” (o sea, determinísticas, según la definición de Andréu Abela (2000)), permite detectar patrones de superficie en la forma de los textos que se están estudiando. Estos patrones, a su vez, y dependiendo del tipo de texto recogido, pueden permitir encontrar esquemas narrativos, usos lingüísticos repetidos, relaciones entre unidades léxicas, y en general caracterizar los textos de acuerdo con estructuras formales a gran escala. Además, la transformación del contenido del texto en cuantificaciones numéricas desbloquea una serie de procesos estadísticos y algorítmicos que permiten revelar nuevas lecturas que, aunque están en el contenido “manifiesto”, no se hacen evidentes a simple vista. Por ejemplo, con los datos estadísticos se pueden hacer visualizaciones que muestran distribuciones de datos extraídos de los textos, o con algoritmos de clustering se pueden agrupar temáticas recurrentes.

En cuanto a la principal desventaja de la codificación cuantitativa, el contenido “manifiesto” puede llevar a interpretaciones de superficie que no dan cuenta de los sentidos complejos que puede connotar un texto. Un ejemplo claro son los distintos efectos semióticos y retóricos que suelen usar participantes cuando están hablando en un lenguaje cotidiano: sarcasmos (“¡bonitas las horas de llegar!”), metonimias (“hay que parar la fuga de cerebros”), metáforas (“x es un cerdo”), contrafácticos (“si hubiera dormido, no tendría dolor de cabeza), etc. Cuantificar contenido manifiesto suele partir de la suposición de que un signo léxico es una entidad estable de la que se pueden contar sus ocurrencias, o sea, que se puede suponer que la misma palabra en distintos contextos se refiere a lo mismo. Esto omite completamente los matices del lenguaje real bajo la apariencia de la sistematicidad. La noción de contexto ayuda a diferenciar con mayor profundidad las diferencias, pero, en ocasiones, una noción de contexto muy restrictiva, que también se supone como claramente definible, es insuficiente.

La principal ventaja de la codificación cualitativa, que para algunos puede también ser su principal defecto, es el aspecto interpretativo que ofrece lecturas complejas de los textos. Como afirman tanto Elliot (2018) como Saldaña (2013), la codificación, especialmente si se realiza relecturas y recodificaciones posteriores de los textos, les permite a los investigadores familiarizarse con sus objetos de estudio de una manera que no es posible con los métodos automatizados que ofrece la investigación cuantitativa. Tanto es así que Saldaña sugiere aprender a codificar a mano, con hojas impresas y esfero en mano, más que con software de anotación especialmente creado para métodos de investigación en ciencias sociales. Sin embargo, esto también puede resultar desventajoso en términos de escala y tiempo, por eso Saldaña destaca como uno de los atributos de un buen investigador de codificado a la “paciencia”. Los corpus demasiado grandes, tanto en el número de textos como en la extensión de los mismos, aumentan la dificultad de la codificación. En esos casos se necesita recurrir a la anotación grupal o al crowdsourcing (por ejemplo, creando proyectos de ciencia ciudadana), que permiten que múltiples investigadores o ayudantes anoten partes del corpus. Por supuesto, esto reduce la familiarización con el corpus que obtendría un solo investigador, introduce múltiples interpretaciones que pueden resultar contradictorias o inconsistentes, pero aumenta la escala a la que se puede realizar el proceso.

Tratar datos cualitativos como datos numéricos, por ejemplo, contándolos, puede dar paso a interpretaciones erróneas. Por ejemplo, la codificación —como advierten Elliott y Saldaña—, debido a que en buena medida es un proceso interpretativo, no va a producir con exactitud resultados “objetivos” en el sentido de Andreu Abela, es decir, determinísticos, que produzcan la misma salida si se dan los mismos datos de entrada. Así, contar el número de códigos que resultan de un texto darían más una impresión de los intereses del codificador que de la estructura del texto. No obstante, esto no es del todo negativo, si se tienen en cuenta las condiciones en las que se da la codificación, pues un conteo puede dar luces de patrones intuitivos que el investigador está descubriendo o hacia los que tiende su búsqueda, pero que no son todavía muy evidentes.

En cuanto a mi trabajo, considero que las dos metodologías pueden resultar útiles. El método de análisis cuantitativo puede servir para corpus extensos que tienen formatos relativamente preestablecidos y que no fueron recogidos por mi: entradas de blog, artículos académicos, proceedings de conferencias alrededor de las humanidades digitales, etc. Ese tipo de corpus puede encajar dentro de las premisas de análisis sistemático del análisis cuantitativo y, además, puede ser analizado en superficie para detectar patrones temáticos comunes en los textos. Por otra parte, el método de análisis cualitativo puede servir para los objetos textuales que estoy recogiendo yo mismo, especialmente las entrevistas a participantes de las comunidades nacionales en Latinoamérica. Como mi interés consiste en desarrollar un diagnóstico profundo de las dificultades, los horizontes y las diferencias que existen en la construcción de las humanidades digitales en nuestro contexto, la codificación cualitativa puede dar el nivel de detalle que necesito. Además, con los experimentos que ya he realizado, he notado que la codificación cualitativa efectivamente permite ver sentidos profundos que los participantes comunican y que no quedarían expuestos con un análisis cuantitativo.

Referencias

Andréu Abela, J. (2000). Las técnicas de análisis de contenido: Una revisión actualizada. Fundación Centro de Estudios Andaluces, Universidad de Granada.

Elliott, V. (2018). Thinking about the Coding Process in Qualitative Data Analysis. The Qualitative Report. https://doi.org/10.46743/2160-3715/2018.3560

Saldaña, J. (2016). The coding manual for qualitative researchers. SAGE.