ANÁLISIS DE DATOS CUALITATIVOS Y PROCESOS DE CODIFICADO / MFC

Por: Mario Cuéllar

¿Qué ventajas y desventajas encuentran en el proceso de codificado realizado en el Análisis de Contenido (AC) cualitativo y el realizado en el AC cuantitativo?

La codificación implica no solo un análisis del contenido, sino también de actos y operaciones. Una desventaja que encuentro en el proceso de codificado, es pretender que solo con el acto de codificar, el análisis se encuentre realizado. Esta acción podría caer en el campo de la instrumentalización.

Contrario a lo anterior, la ventaja que encuentro del AC es que permite una comprensión a través de re-creación o repetición del proceso de creación del texto (Berelson, Krippendorff y Laurence Bardin citados por Andréu Abela, J (2000)), en el que como investigador busco interpretar, identificar y congeniar con el autor de la información analizada. En este sentido, el AC tiene un carácter objetivo, pues no consiste en entender a otro sino en entenderse con otro sobre algo. Así, por ejemplo, al analizar un texto sobre competencias informacionales no sólo busco hacer un ejercicio de comprensión sintáctica del texto, sino que, como texto escrito, la información a analizar es un acontecimiento que se ubica en un tiempo y en un lugar determinado (contexto) que, sin lugar a dudas, contiene un sesgo que como investigador debo develar.

Esto significa que un AC ya sea cualitativo o cuantitativo me ubica como investigador en una comprensión de contexto y de pretexto, por lo que el análisis requiere de categorías o pre-juicios que sirvan como información previa. No necesariamente la codificación puede ser la mas acertada (el AC es ante todo un ejercicio de aproximación), pero si es una forma de ver una realidad a la que me estoy aproximando. De ahí que una de las ventajas significativas del AC es que a través de la codificación se pueden dar condiciones para comprender y abrir posibilidades al corpus de la investigación.  

Finalmente, comprender puede ser entendida como una vinculación del texto e investigador por medio de la codificación, significando así una comprensión amplia del intérprete frente al texto. Por supuesto, este ejercicio no presume trasladarse a la época del autor, sino realizar un análisis más amplio. De esta manera, la codificación permitirá que el análisis, ya sea cualitativo o cuantitativo, se pueda estructurar como un dialogo prioritariamente lingüístico (corpus), ya que el lenguaje es el medio por el cual se avanza, o se progresa, según sea la naturaleza de la investigación.

¿Qué tipo de codificado consideran puede ser aplicado en el proyecto de investigación en el que vienen trabajando? ¿Por qué?

En mi investigación podría acudir a las dos metodologías (cualitativo y cuantitativo). Sin embargo, la naturaleza de la investigación hace que me encuentre interesado en contar con un AC de corte cualitativo, dado que las competencias informacionales (tema de investigación) tienen unos fundamentos normativos dentro del marco de la educación. Así pues, la codificación podría conducirme hacia una acción comunicativa, en la cual el establecimiento de un corpus se encamine a un acuerdo basado en argumentaciones racionales, es decir, en el discurso que faculta a las competencias informacionales como conjunto de habilidades en un saber específico.

Sumando a esto, lo cualitativo como camino para llegar a un fin, o una manera de hacer las cosas, puede conducir a la investigación hacia el concepto de competencia informacional mas definido, más determinado y específico. De este modo, el codificado permitirá hacer una interpretación de los ámbitos de las competencias informacionales y determinar lo que racionalmente debe o no debe suceder, es decir, extraer consecuencias normativas.  

Por último, la codificación de carácter cualitativo permitirá realizar una descripción de las estructuras culturales, de normas y valores que rodean el tema de las competencias informacionales. Con esto la investigación tendrá validez y fundamento, ya que la naturaleza del conocimiento sobre las competencias informacionales se ancla al análisis crítico, a las afirmaciones razonables y a los actos de significación puestos en categorías, teorías, acciones y métodos de investigación.

Lecturas:

Codificado emergente

Caminante no hay camino se hace el camino al andar”. Antonio Machado

Por John V.

En las investigaciones es indispensable establecer previamente categorías de análisis claras, porque estas cualidades configuran una decisión o una serie de decisiones sobre el enfoque de la investigación. El propósito de la investigación determina su naturaleza (cualitativa, cuantitativa o mixta). Cada investigación sea cualitativa o cuantitativa, como en la vida misma, toma un rumbo diferente. Sin embargo, hay pasos y procesos que no se pueden obviar en un análisis de contenido. 

Por ejemplo, cuando se realiza una investigación sobre las prácticas lectoras en la escuela se parte de procedimientos jerárquicos. Existen decisiones de fondo que gestionan la búsqueda y selección de los datos en los textos y los contextos. En primera medida, se puede conformar una entrevista semiestructurada para recopilar dichos datos. Entonces, previamente se han preestablecido una suerte de categorías que derivan en preguntas jerarquizadas o aleatorias. Dichas preguntas corresponden a categorías y concepciones a priori

Posteriormente, se unifican los datos tomados de los discursos de los entrevistados. Es el proceso de codificado el que jugará un papel determinante en el análisis de los datos. Entonces, ¿a qué nos referimos con codificado? Siguiendo a Molton (2015) es la “abstracción conceptual de datos”. El codificado consiste en delimitar con etiquetas simbólicas discursos, eventos y materiales particularmente clasificados.

Así se llega a los problemas que enfrenta un investigador al momento de codificar sus datos. Tres son los “errores” comunes que enuncia Elliot, a saber: Cantidad de códigos, imprecisión en el codificado y codificación sesgada. Las trampas en el codificado de los datos enfrentan tensiones entre la información preestablecida y la información emergente. Creemos que el proceso de codificado es un paso en el análisis que se da necesariamente sobre las tensiones de lo a priori y lo a posteriori de la investigación. Porque los hallazgos de la investigación surgen en la confrontación y el reajuste de la codificación de los datos. 

Retomemos el ejemplo anterior, sobre las prácticas lectoras y escritoras, allí aparecerán discursos que se agruparan bajo el criterio de patrones de repetición, configurando la base estructural del análisis pero el investigador no debe deshacerse de la capacidad de sorpresa o la habilidad para dejarse atrapar por los “datos latentes”, discursos que emergen como el factor sorpresivo en la investigación. 

La inferencia en la codificación de la información es fundamental porque permite pensar estrategias de meta codificación sobre la base de simbologías emergentes en los datos. La inferencia consiste en este caso en explicar las relaciones de los contenidos analizados con sus respectivos contextos. 

Incluso, podemos pensar en un Análisis de Contenido textual sobre la manera como el discurso político ha hilvanado (agenciado) propuestas sobre lectura y escritura en la ciudad. La unidad de análisis serían aquellas políticas referidas a la intervención de gestores y promotores de lectura y escritura. Sin embargo, es necesario pasar de un análisis de redes semánticas a un análisis de redes; para aventar posibles emergencias y tensiones entre el texto, sus relaciones y los contextos de intervención, pues es posible que aparezcan ausencias sobre la presencia cuantitativa de los datos analizados. 

Otra de las ventajas en el análisis de contenido recae sobre las reglas de análisis; ya que el material analizado (textual, material o iconográfico) va creando “reglas y procedimientos que permiten dividir el material en unidades de análisis más interpretables” Andréu Abela, J (2000). Es así que, consideramos que las desventajas en la implementación de análisis de contenido es considerar que los datos pertenecen a una sola dimensión de análisis, una dimensión cuantitativa separada de la realidad. También, pensar que lo cualitativo avanza separado de la cuantificación de los datos (codificación numérica). Los dos espacios son posibles en la investigación, no de manera simétrica, pero sí como posibles vías constitutivas de encuentro y desencuentros sobre las realidades a investigar. 

En la investigación propia que se adelanta, consideramos que se puede implementar un análisis semántico; ya que se basa en los modelos de relaciones, la extensión de los términos y los conceptos. Dicho análisis permite abordar categorías como: concepciones de lectura y escritura, estrategias de lectura y escritura. También, es posible pensar en el estudio semántico sobre la dimensión política de la lectura y la escritura. 

Posiblemente, desde el análisis semántico se pueda proyectar un análisis de redes. Las redes que configuran la realización de una política pública sobre lectura y escritura o su posible resistencia en las comunidades locales. 

Bibliografía 

Elliott, V. (2018). Thinking about the Coding Process in Qualitative Data Analysis. The Qualitative Report, 23(11), 2850-2861. 

Saldaña, J. (2016). “Capítulo 1. Introducción al código y a la codificación”. The Coding Manual for Qualitative Researchers (3ª edición) Londres, Reino Unido: Sage.

Andréu Abela, J (2000). Las técnicas de análisis de contenido: una revisión actualizada. Fundación Centro Estudios Andaluces, Universidad de Granada, v.10, n. 2, p. 1-34, 2000.

Codificado – Juan Carlos Torres

Luego de leer el texto de Saldana (2016) es difícil mencionar una ventaja que no haya dicho el autor o una desventaja que no haya desmentido. En primer lugar, las ventajas pasan por considerar la codificación un ejercicio flexible que depende del autor que haga la codificación y no un proceso mecánico y objetivo del cual se desprendan verdades. Los autores en los textos son bastante claros en considerar que el proceso, al depender en muchos momentos del criterio del investigador, da como resultado, más bien, su lectura del fenómeno, la cual no es superficial por ser relativa a él, por el contrario, es profunda, compleja y completa si el proceso se hace con rigor. Con esto, no se pone entonces en entredicho la validez de los ejercicios de análisis, sino que se abre la posibilidad de considerarlos perfectibles, o reescribibles, si es que esa palabra pueda ser la más adecuada. Reinterpretar es reorganizar o modificar la mirada, pero no invalidar lo anterior. Contrario a lo que se piensa, cuando la codificación se hace desde ese punto de vista, entonces nos referimos más bien a un ejercicio profundo, lleno de posibilidades que ayuda a analizar la información desde varias perspectivas y a cuestionar, incluso, los posibles prejuicios que acompañan al investigador antes de enfrentarse a los datos. Además, al ser pensado como un proceso “artesanal”, como lo define Saldana, entonces debemos suponer la importancia que tiene el aporte realizado por el investigador desde su creatividad, desde su capacidad para ver lo datos con otro punto de vista. Los datos, entonces, son como la arcilla, que puede tomar muchas formas, las cuales depende de los preconceptos que tenga el autor. A esto Deleuze (1987) lo llamaría “montaje” como aquel que se encarga de darle forma y materialidad al plano de inmanencia que no es más que una idea que pasa de ser virtual para volverse actual. Así, lo datos son ese virtual que se actualiza (o concretiza) en el momento en el que se codifican.

La desventaja que podría ver no está en el ejercicio de codificación en sí, sino en su necesidad de hacerlo confiable. Cuando se habla de la confiabilidad de la codificación aparece la idea de un segundo investigador y de la variabilidad en el tiempo de los análisis que haga el primero. En ese sentido, mientras menor sea la variación, tanto del ejercicio de un investigador a otro como de los análisis de un mismo investigador en diferentes momentos, mayor es la confiabilidad del ejercicio. Así, da la impresión de que las codificaciones, sujetas por la confiabilidad, no pueden cambiar de manera significativa en poco tiempo o de un sujeto a otro, por lo que parece que cambiar de perspectiva, de formas de pensamiento o de aproximaciones a los datos, no es una tarea sencilla o fácil de concebir. Desde mi punto de vista, la confiabilidad condiciona esa variabilidad que se muestra como una ventaja de la codificación, ya que el investigador, en aras de la confiabilidad, no podrá introducir o hacer relecturas significativas. En ese orden de ideas, podría ser normal que un investigador termine codificando bajo determinados prejuicios o con presiones concretas que vienen de las tradiciones investigativas y teóricas que surgen, seguramente, de las revisiones que haga del Estado del arte, incluso de los puntos de vista o los análisis que tienen mayor protagonismo en los eventos académicos y las publicaciones mejor ranqueadas. Los criterios de confiabilidad, entonces, deberían reconsiderarse.

Por otro lado, mis ejercicios específicos de investigación, tanto el de este semestre como el de la tesis, requieren de una codificación y categorización muy claras. Si bien lo que busco es una forma diferente de analizar la migración que no caiga en los estudios demográficos tradicionales, si hay algo que es evidente, y es que la tradición de esos estudios ha permitido crear unos parámetros muy sólidos para el análisis a los cuales parece necesario recurrir. No se trata de volver a hacerlos, sino de pensar esas mismas categorías en otros contextos. Por ejemplo, la idea de tensiones migratorias, pero vistas en el cuerpo, no en datos demográficos; el concepto de identidad, ya no expresada en lo que se dice de sí mismo, sino en la relación con el territorio a través de lo sensorial; el desprendimiento de su territorio influido por factores externos, ahora pensado en la manera en que ello se refleja en acciones específicas, no en palabras. En mi caso particular, considero que la codificación es necesaria, pero esta debe cambiar para hacerse más amplia y permitir incluir en ellas otros datos, de naturalezas diferentes. Lo que se vuelve un poco complejo, es la manera en que esos datos pueden crear patrones o la manera de sistematizarlos para su análisis. Esto en los estudios tradicionales se conoce como estudio de variables, las cuales son datos cuantitativos que se cruzan, se solapan y se condicionan entre sí, por lo que el reto está en transformar eso cuantitativo en un lenguaje cualitativo y luego en una nueva y diferente codificación cualitativa.

Análisis discursivo de los Planes de Lectura y Escritura 2011-2021. By John Vargas.

La escuela, las bibliotecas, las comunidades y diferentes contextos reciben no solamente los discursos sobre la manera como se debe pensar y dirigir la lectura y la escritura, sino también materiales que se relacionan con dichas políticas públicas. Existe un conjunto de políticas que configuran prácticas y modos de ser de la literatura en distintos lugares de Colombia. La intención con esta propuesta de indagación es analizar el discurso y las concepciones que agencian la política pública sobre la lectura y la escritura. Específicamente, las acciones se enfocarán en recopilar un corpus de textos propuestos por el Ministerio de Educación que van del 2011 al 2021.

Los documentos de las políticas públicas se tomarán del portal web del Ministerio de Educación Nacional. Allí hay un repositorio bastante amplio para configurar un corpus de textos alrededor de los términos de búsqueda sobre políticas públicas para la lectura y la escritura. De la mano con lo anterior, se plantea la necesidad de vincular el análisis discursivo y textual con un programa de análisis computacional, como Léxico y Anconc. Inclusive, se pretende relacionar el análisis discursivo con los materiales derivados de las políticas para realizar un estudio multimodal.

Cabe aclarar que la investigación no pretende consolidar un corpus grande por cada insumo, sino construir un análisis multimodal que nos aporte elementos para leer el contexto y problematizarlo desde referentes teóricos y metodológicos críticos. La vinculación de elementos de análisis multimodal y de analizadores textuales digitales es fundamental para refinar los datos y vislumbrar las presencias, así como las ausencias en los discursos y las prácticas de lectura y escritura que promueve el Ministerio de Educación Nacional.

Programas a usar:

Lex&co

Ancont: https://www.laurenceanthony.net/software/antconc/

Pregunta: ¿Qué nos dice el estudio computacional de los documentos derivados de los Planes Nacionales de Lectura y Escritura sobre sus propias prácticas y concepciones?

Propósito: Cartografiar la materialidad sígnica de las concepciones de lectura y escritura en los Planes de Lectura y Escritura 2011-2021.  

Objetivos: Analizar los términos y los conceptos sobre la lectura y la escritura en los Planes de Lectura y Escritura entre 2011-2021 (MEN).

Estudiar los términos y los conceptos referidos a la lectura y la escritura en los Planes de Lectura y Escritura (2011-2021).

Entender las relaciones entre la cultura material, los discursos y las prácticas de enseñanza de la lectura y la escritura en la escuela.

Señalar las concepciones que contienen los Planes de Lectura y Escritura oficiales.  

Visualizar las tendencias oficiales sobre las concepciones en la lectura y la escritura.

Ventajas y desventajas de los análisis de contenido cuantitativos y cualitativos — Sergio

Aunque usan el mismo objeto de estudio: un conjunto de textos en el sentido amplio (que puede abarcar textos escritos, imágenes, audio, video…), el método de análisis de contenido cuantitativo y el método de análisis de contenido por medio de codificación cualitativa parten de premisas diferentes para desarrollar sus metodologías: mientras que el primero supone un sistema de reglas sistemáticas (es decir que abarcan por completo el corpus posible), replicables con exactitud y con resultados determinísticos; el segundo supone un proceso más ponderado de interpretación inferencial y abductiva, en la que el investigador codifica los textos de su corpus de acuerdo a diferentes estrategias como la codificación exploratoria (más que todo intuitiva), la codificación in vivo (usando los mismos términos que los participantes), la codificación descriptiva (que anota metódicamente pequeños términos), etc.

La principal ventaja del análisis de contenido cuantitativo es que, gracias a sus reglas “objetivas” (o sea, determinísticas, según la definición de Andréu Abela (2000)), permite detectar patrones de superficie en la forma de los textos que se están estudiando. Estos patrones, a su vez, y dependiendo del tipo de texto recogido, pueden permitir encontrar esquemas narrativos, usos lingüísticos repetidos, relaciones entre unidades léxicas, y en general caracterizar los textos de acuerdo con estructuras formales a gran escala. Además, la transformación del contenido del texto en cuantificaciones numéricas desbloquea una serie de procesos estadísticos y algorítmicos que permiten revelar nuevas lecturas que, aunque están en el contenido “manifiesto”, no se hacen evidentes a simple vista. Por ejemplo, con los datos estadísticos se pueden hacer visualizaciones que muestran distribuciones de datos extraídos de los textos, o con algoritmos de clustering se pueden agrupar temáticas recurrentes.

En cuanto a la principal desventaja de la codificación cuantitativa, el contenido “manifiesto” puede llevar a interpretaciones de superficie que no dan cuenta de los sentidos complejos que puede connotar un texto. Un ejemplo claro son los distintos efectos semióticos y retóricos que suelen usar participantes cuando están hablando en un lenguaje cotidiano: sarcasmos (“¡bonitas las horas de llegar!”), metonimias (“hay que parar la fuga de cerebros”), metáforas (“x es un cerdo”), contrafácticos (“si hubiera dormido, no tendría dolor de cabeza), etc. Cuantificar contenido manifiesto suele partir de la suposición de que un signo léxico es una entidad estable de la que se pueden contar sus ocurrencias, o sea, que se puede suponer que la misma palabra en distintos contextos se refiere a lo mismo. Esto omite completamente los matices del lenguaje real bajo la apariencia de la sistematicidad. La noción de contexto ayuda a diferenciar con mayor profundidad las diferencias, pero, en ocasiones, una noción de contexto muy restrictiva, que también se supone como claramente definible, es insuficiente.

La principal ventaja de la codificación cualitativa, que para algunos puede también ser su principal defecto, es el aspecto interpretativo que ofrece lecturas complejas de los textos. Como afirman tanto Elliot (2018) como Saldaña (2013), la codificación, especialmente si se realiza relecturas y recodificaciones posteriores de los textos, les permite a los investigadores familiarizarse con sus objetos de estudio de una manera que no es posible con los métodos automatizados que ofrece la investigación cuantitativa. Tanto es así que Saldaña sugiere aprender a codificar a mano, con hojas impresas y esfero en mano, más que con software de anotación especialmente creado para métodos de investigación en ciencias sociales. Sin embargo, esto también puede resultar desventajoso en términos de escala y tiempo, por eso Saldaña destaca como uno de los atributos de un buen investigador de codificado a la “paciencia”. Los corpus demasiado grandes, tanto en el número de textos como en la extensión de los mismos, aumentan la dificultad de la codificación. En esos casos se necesita recurrir a la anotación grupal o al crowdsourcing (por ejemplo, creando proyectos de ciencia ciudadana), que permiten que múltiples investigadores o ayudantes anoten partes del corpus. Por supuesto, esto reduce la familiarización con el corpus que obtendría un solo investigador, introduce múltiples interpretaciones que pueden resultar contradictorias o inconsistentes, pero aumenta la escala a la que se puede realizar el proceso.

Tratar datos cualitativos como datos numéricos, por ejemplo, contándolos, puede dar paso a interpretaciones erróneas. Por ejemplo, la codificación —como advierten Elliott y Saldaña—, debido a que en buena medida es un proceso interpretativo, no va a producir con exactitud resultados “objetivos” en el sentido de Andreu Abela, es decir, determinísticos, que produzcan la misma salida si se dan los mismos datos de entrada. Así, contar el número de códigos que resultan de un texto darían más una impresión de los intereses del codificador que de la estructura del texto. No obstante, esto no es del todo negativo, si se tienen en cuenta las condiciones en las que se da la codificación, pues un conteo puede dar luces de patrones intuitivos que el investigador está descubriendo o hacia los que tiende su búsqueda, pero que no son todavía muy evidentes.

En cuanto a mi trabajo, considero que las dos metodologías pueden resultar útiles. El método de análisis cuantitativo puede servir para corpus extensos que tienen formatos relativamente preestablecidos y que no fueron recogidos por mi: entradas de blog, artículos académicos, proceedings de conferencias alrededor de las humanidades digitales, etc. Ese tipo de corpus puede encajar dentro de las premisas de análisis sistemático del análisis cuantitativo y, además, puede ser analizado en superficie para detectar patrones temáticos comunes en los textos. Por otra parte, el método de análisis cualitativo puede servir para los objetos textuales que estoy recogiendo yo mismo, especialmente las entrevistas a participantes de las comunidades nacionales en Latinoamérica. Como mi interés consiste en desarrollar un diagnóstico profundo de las dificultades, los horizontes y las diferencias que existen en la construcción de las humanidades digitales en nuestro contexto, la codificación cualitativa puede dar el nivel de detalle que necesito. Además, con los experimentos que ya he realizado, he notado que la codificación cualitativa efectivamente permite ver sentidos profundos que los participantes comunican y que no quedarían expuestos con un análisis cuantitativo.

Referencias

Andréu Abela, J. (2000). Las técnicas de análisis de contenido: Una revisión actualizada. Fundación Centro de Estudios Andaluces, Universidad de Granada.

Elliott, V. (2018). Thinking about the Coding Process in Qualitative Data Analysis. The Qualitative Report. https://doi.org/10.46743/2160-3715/2018.3560

Saldaña, J. (2016). The coding manual for qualitative researchers. SAGE.

Estudio Crítico de discurso multimodal del documental “Galu Dugbis. La memoria de las abuelas” de la teleserie “El buen vivir”

Luis Eduardo Ospina Raigosa Estudiante del DCLIN

Métodos Avanzados de Investigación II

Prof. Nadya González-Romero Prof. Andrés Lombana Bermúdez 

Pontificia Universidad Javeriana

Propuestas de ejercicio de investigación incorporando los Estudios del Discurso.

El presente ejercicio de investigación titulado “Estudio crítico del discurso en perspectiva multimodal del documental “Galu Dugbis. La memoria de las abuelas” de la teleserie “El buen vivir”, pretende interpretar esta obra audiovisual y dar cuenta de sus características esenciales.

Objetivo de indagación.

Interpretar el documental “Galu Dugbis. La memoria de las abuelas” del proyecto multiplataforma “El Buen vivir” y los rasgos característicos que lo configuran como una obra audiovisual indígena que potencia la comunicación propia. La principal fuentede análisis la constituye dicho documental. No se descarta la posibilidad de entrevistar a los realizadores del documental quienes se constituyen como los participantesen el proceso.

Tipos de datos o información a recolectar para conformar el corpus.

El corpuspuede ser entendido como una materialidad (textual, visual, sonora, numérica…) que expresa un fenómeno social y cultural. En este sentido, la materialidad del corpusda cuenta acerca de qué piensan los miembros de un determinado grupo o grupos en torno a un asunto fundamental para su comunidad; qué reiteran; qué valores se proponen comunes; o qué interpretan como colectivo acerca de un asunto que es inherente a sus vidas. La selección del corpus es una de las decisiones centrales en un estudio de discurso, dado que el corpus constituye el universo de sentido que se espera recorrer. 

Para la selección del corpusse usaron los hallazgos de un ejercicio de investigación titulado “El Buen vivir, lenguaje audiovisual indígena en Colombia. En búsqueda de afinidades con el pueblo Cofán” (Ospina Raigosa, 2021), que se propuso indicar la relevancia de las obras audiovisuales y los colectivos de comunicación indígenas en Colombia. Dicho proyecto focalizó sobre el proyecto “El Buen Vivir” dado que es un proceso sin precedentes que evidencia el estado actual de la comunicación indígena en Colombia. La pregunta problema indagó por ¿Cuáles obras audiovisuales y colectivos de comunicación de la teleserie “El Buen vivir” son más afines a la comunidad Cofán? Los hallazgos que emergen de dicho estudio se presentan a continuación:

En este sentido la demanda por la preservación del territorio es un tema de primera importancia para el Pueblo Cofán. Si cruzamos esta categoría con la etnografía realizada en el canal de You Tube de la CONCIP, encontramos algunos contenidos que tienen afinidad con la concepción de territorio del Pueblo Cofán.

En estas afinidades destaca el capítulo 2 de la serie El Buen Vivir – Cuidar con la Tierra. En este capítulo se presentan tres cortos documentales de los pueblos Uwa (Marly Caceres Uncaica), el Pueblo Pastos (Audiovisuales Pastas) y el Pueblo Guna Dule (SentARTE Producciones). La descripción del video indica:

Además de la valoración del mundo espiritual, para los pueblos #Uwa, #GunaDule y #Pastos uno de los aspectos más importantes en la concepción de #ElBuenVivir es la correcta relación material y espiritual con la Madre Tierra, dadora de vida y fundamento de la existencia de todos los elementos del mundo material. En ese sentido genérico, los territorios no son solamente espacios geográficos con recursos naturales, sino espacios sagrados de organización política, autoridad propia, idioma propio y un conjunto complejo de saberes y prácticas culturales. (Matriz de análisis, 2021)

Partiendo de los datos expresados en esta investigación resulta interesante la afinidad temática existente entre la comunidad Cofán y el corto del Pueblo Guna Dule titulado “Galu Dugbis. La memoria de las abuelas”. Cabe resaltar que todos los comentarios referentes a este contenido destacan la relación de las comunidades con el territorio.

En este orden de ideas resulta admisible la selección del corto “Galu Dugbis. La memoria de las abuelas” atendiendo a los hallazgos resultado de la investigación previa que implementó métodos mixtos tales como el análisis de redes sociales, la etnografía digital y el análisis lingüístico computacional.

Tipos de discurso.

En la siguiente tabla se presentan los datos referentes al corto documental que se constituye como el corpus-objeto de análisis:

Título del DocumentalGalu Dugbis – La memoria de las abuelas
DescripciónLas mujeres de tres generaciones del pueblo Guna Dule del Urabá antioqueño que simbolizan a la Madre Tierra, cantan y tejen molas para cuidar el planeta. La Dule ome – Mujer Dule es vital para el pueblo Guna Dule. A través del tejido de la Mola, ella plasma la sabiduría de los antepasados mediante la representación de las capas del universo y la transmite de generación en generación para que la cultura perviva. Los cantos sagrados plasman el recorrido y el proceso de la construcción de una Mola y cómo por medio de tres generaciones las mujeres deciden tejer para no olvidar quiénes y de dónde son las mujeres Guna Dule.
Enlacehttps://www.youtube.com/watch?v=e8XxKmvOtJU 

Los elementos presentados en la tabla, así como el documental que se encuentra disponible en línea permiten reconstruir los elementos de contexto, el lugar de enunciación y el tipo de destinatario.

Reflexión Teórica

Los contenidos digitales contemporáneos se caracterizan por la producción de sentido desde diferentes sistemas de signos. El enfoque multimodal para la comprensión de estos contenidos se fundamenta en el concepto de discurso y desde allí establece un desarrollo frente a los discursos de carácter multimodal.

En la propuesta teórica de la multimodalidad el discurso se entiende como parte de un proceso, ya no es solo su dimensión lingüística la que se estudia, sino el conjunto de sistemas sígnicos para la producción de sentido. Cada sistema, en un texto multimodal, solo lleva un significado parcial. La teoría multimodal da especial relevancia a las conexiones e intersecciones entre los distintos sistemas sígnicos y cómo su interrelación contribuye a producir significado. De acuerdo con Williamson (2005: 1) de las cinco corrientes de la teoría multimodal que se pueden rastrear alrededor del mundo, el enfoque británico cuyos pioneros son Gunter Kress y Theo van Leeuwen, ofrece un importante modelo de estratos que es funcional para abordar los discursos contemporáneos.

Los discursos contemporáneos, de carácter digital en su mayoría, se caracterizan por la amalgama de varios modos de sentido y por un desarrollo tecnológico que incide en los procesos de producción e interlocución. Este particular exige desarrollar teorías que den cuenta de las complejidades propias que tienen los discursos de hoy que se han transformado de manera significativa por la presencia de Internet. “Una ruta para contribuir, desde la perspectiva de los estudios del lenguaje, a la comprensión y explicación de lo que significa ser ciudadano o miembro de una sociedad es el estudio multimodal y multimedial de las expresiones que produce, distribuye e interpreta la sociedad informatizada” (Pardo Abril, 2015: 205).

Adoptar la propuesta teórica multimodal implica comprender la comunicación como entramado complejo de producción de sentido, donde interactúan muchos actores con diversas maneras de expresión que se conjugan unas a otras. En este panorama cada uno de los sistemas semióticos utilizados para representar y comunicar posee una potencia comunicativa, que equivale a lo que cada sistema sígnico o modo puede desplegar en significación. (Williamson 2005: 3). 

Los modos pueden entenderse como los recursos para crear sentido y son generados por la cultura y sus actores de maneras específicas de acuerdo a sus dinámicas sociales, históricas, geográficas, políticas y económicas entre otras. “El modo es un recurso semiótico que se produce culturalmente y se moldea socialmente para construir significado. La imagen, la escritura, el diseño, la música, el gesto, el habla, la imagen en movimiento, el sonido y los objetos tridimensionales son modos” (Pardo Abril, 2015: 211). Además, el concepto de modo tiene un potencial creativo por parte de los interlocutores que apropian los discursos que tienen a disposición y aprovechan unos medios físicos y técnicos para la expresión de un mensaje. En concordancia con Rodney Williamson (2005), a un medio explotado para fines comunicativos se le llama modo (2).  

Los Estudios Críticos del Discurso Multimodal (ECDM) son una línea teórica de los ECD que expresan la vitalidad analítica para entender la realidad socio-cultural a partir del análisis de los discursos contemporáneos y la comprensión de sus características, además de las implicaciones que generan estos discursos en la vida cotidiana. La propuesta de discurso multimodal propone una realidad cambiante y dinámica, donde cobran interés los recursos técnicos utilizados para de creación y circulación de discurso y donde el interlocutor tiene un carácter de agencia, dado el sofisticado manejo de los múltiples modos de comprensión que tiene que asumir al interpretar un discurso.

Metodoló de recolección

Este ejercicio de investigación posee un carácter cualitativo, está ubicado en las ciencias sociales, se encuentra demarcado por el paradigma crítico-interpretativo y tiene una mirada interdisciplinar. 

En la pesquisa realizada (PPCPI, 2018; MinCultura, 2017; Mora 2015) se encontraron distintos documentales realizados por pueblos indígenas. Con base en la investigación titulada “El Buen vivir, lenguaje audiovisual indígena en Colombia. En búsqueda de afinidades con el pueblo Cofán” (Ospina Raigosa, 2021)se seleccionó  el documental “Galu Dugbis – La memoria de las abuelas”,  para analizar el discurso multimodal y dar cuenta de sus características. El procedimiento se realiza en tres momentos que van desde la identificación del fenómeno (comunicación propia), la selección del corpus, la descripción y la interpretación. La técnica es la estadística-descriptiva articulada al análisis multivariado (uso del software NVivo 11). Analizar las obras indígenas permite comprender sus características estéticas en función del diseño de acciones pedagógicas de socialización. Así, este ejercicio de investigación quiere analizar dicha obra audiovisual y usar sus resultados en beneficio del aprendizaje del lenguaje audiovisual con el pueblo Cofán.

Fin de la entrada.

Avance 1 — Sergio

Título: las humanidades digitales en Latinoamérica, entre la comunidad de prácticas y el horizonte epistemológico

Objetivos

Como continuación de las exploraciones alrededor de mi proyecto de investigación, que se centra en los problemas de la construcción de unas humanidades digitales propias en Latinoamérica, quisiera aprovechar las discusiones y herramientas tecnológicas que hemos planteado en el curso con respecto al análisis del discurso para indagar acerca de dos conceptos que han surgido en mi diagnóstico inicial: la comunidad de prácticas y el horizonte epistemológico del humanismo digital en nuestro contexto. Ambos conceptos implican una concepción opuesta de las condiciones y el futuro de las humanidades digitales y, por tal motivo, quisiera usar técnicas de análisis del discurso para detectar las narrativas, frames conceptuales y constitución de actos de habla en sus concepciones. Este análisis puede servir para mi proyecto de tesis en el sentido en que me daría luces para poder justificar y orientar mejor mi propuesta de unos fundamentos básicos de los principios de lo digital desde el punto de vista humanísitico.

A continuación explicaré en más detalle mi propuesta para el proyecto final del curso:

Problema

En las indagaciones previas que he realizado (en buena parte gracias a la investigación hecha en el curso de Métodos avanzados de investigación 1), se ha asomado el problema de que las humanidades digitales en Latinoamérica se debaten entre dos apuestas discursivas: las humanidades digitales como comunidad de prácticas o las humanidades digitales como horizonte epistemológico. En este proyecto quisiera abordar estos dos discursos y estudiar en qué se diferencian sus narrativas, los frames conceptuales que los organizan, y los actos de habla que constituyen realidades sociales en su expresión.

En la indagación preliminar he notado que el discurso de las humanidades digitales como comunidad de prácticas plantea un terreno común para la interacción de distintas disciplinas tradicionales de las humanidades. En tal terreno se propicia un encuentro para compartir y usar herramientas tecnológicas útiles para las prácticas disciplinarias: por ejemplo, análisis de corpus en lingüística, anotación de textos en filología y literatura, georreferenciación en historia, análisis computacional de imágenes en historia del arte. La idea de la comunidad de prácticas mantiene los principios disciplinarios de la universidad contemporánea, es decir, mantiene identidades claras con respecto a las carreras, los campos de estudio y las metodologías de cada disciplina. Así, la comunidad de prácticas no se compromete a principios epistemológicos fuertes con respecto a lo digital sino que simplemente se ofrece como un facilitador de prácticas académicas. No inclusión de grupos que no han participado en la construcción de la comunidad

Por otra parte, las humanidades digitales como horizonte epistemológico implican entender lo digital no solo como un elemento instrumental útil para la investigación humanística, sino, por el contrario, como una forma de pensamiento fundamental para la cultura contemporánea. Así, las humanidades digitales como horizonte epistemológico plantean un compromiso fuerte con definir sistemas de conceptos, infraestructuras y modos de hacer que enervan profundamente el pensamiento humanístico; incluso, ponen en cuestión el quehacer de las humanidades, la noción de disciplina, y las prácticas de la universidad. Entonces este discurso apuesta por la construcción de una identidad de las humanidades digitales que no las subordina a la utilidad dentro de la comunidad de prácticas.

Población y fuentes

Mi población sería entonces la comunidad de humanidades digitales en Latinoamérica, y, para ser más específico, como fuentes quisiera continuar entrevistando a las representantes, es decir, presidentes, miembros de comités de base, u organizadores de las redes de humanidades digitales nacionales (ya entrevisté a las de México y Argentina). Tengo en mente, para estas nuevas entrevistas, a representantes de Colombia, Chile, Cuba y Brasil. Adicionalmente quisiera entrevistar a dos representantes de comunidades paralelas a las redes de humanidades digitales: un espacio de hacktivismo y un espacio de enseñanza digital campesina (las escuelas digitales de la ACPO), aunque, dependiendo del tiempo, estas entrevistas podrían posponer.

Tipo de información y método de recolección

Pienso realizar entrevistas semiestructuradas a las representantes de las comunidades nacionales, principalmente porque este tipo de entrevistas ofrece un sistema suficientemente ordenado para establecer preguntas relevantes para mi problema y, a la vez, suficientemente abierto para dar cabida a que se manifiesten los discursos subyacentes de las fuentes. Como método de organización de los datos busco codificar las entrevistas usando métodos de codificado tradicionales de las ciencias sociales: establecer una jerarquía de códigos, categorías y temas. Con esta información espero poder hacer un análisis discursivo en un nivel intermedio, enfocado principalmente en las diferencias semánticas entre las dos concepciones de las humanidades digitales que definí antes. Así, busco especialmente realizar un análisis de actos de habla: condiciones de la institucionalización de las humanidades digitales, compromisos epistemológicos, reglas constitutivas, actos ilocucionarios; un análisis de frames conceptuales: es decir, de nociones semánticas estructuradas; y un análisis de narrativas: es decir, de géneros narrativos.

GLOTOPOLÍTICA EN LOS DISCURSOS ESTATALES SOBRE ECONOMÍA Y MUJER

Este proyecto de análisis del discurso a partir de las metodologías vistas en clase hace parte de mi tesis doctoral y se convierte en un elemento fundamental de la discusión que intento plantear en ella, al aportar un análisis crítico de la política pública y darnos las pistas para la búsqueda de un nuevo discurso que surja de las comunidades.

Esta discusión se centra en las imposiciones políticas centro-periferia, que se intentan convertir en fácticas, en cotidianas en las regiones del país; específicamente se analizan las políticas relacionadas con emprendimiento para la mujer en general[1] y emprendimiento en industrias culturales y creativas en particular, para indagar en las palabras, sentidos, contextos, referencias, significados, expresados a través de discursos políticos, legislativos, idearios, en diferentes fuentes de recursos.  

La política nacional actual en su ejercicio de imponer agendas construidas desde el centro[2] construye discursos que impactan directamente las vidas de personas y comunidades muchas veces muy alejadas de los lugares desde donde se construyen. Por lo que es importante revisar cuáles de los conceptos construidos en estas agendas políticas -como emprendimiento, industria cultural, escalabilidad, PIB o éxito-, pueden ser replanteados para la formulación de un nuevo marco teórico co-construido con mujer emprendedora en regiones vulnerables.

Por eso partimos de la siguiente pregunta ¿Cuál sería el resultado de hacer un análisis riguroso de género, diversidad, participación local, igualdad y sostenibilidad en un sentido amplio, a los discursos sobre emprendimiento del gobierno colombiano actual?

En este sentido se busca hacer una investigación en tres etapas:

Análisis glotopolítico: hacer un análisis del discurso de la vicepresidenta Marta Lucía Ramírez, en el lanzamiento del “Fondo Mujer Emprende” para organizarlo a partir de las categorías desarrolladas por la glotopolítica.

Análisis de corpus: acompañar el análisis del discurso de la vicepresidenta con un análisis de la política del estado actual, alrededor del emprendimiento de la mujer. Discursos hablados, leyes y decretos, presentaciones, páginas web, descripciones en diferentes entornos digitales, entre otros discursos en texto o imagen, que se hayan desarrollado durante el gobierno actual y que relacionen a las mujeres con la economía, la empleabilidad, el emprendimiento y la sostenibilidad.

Análisis general: realizar un análisis riguroso a las políticas públicas buscando las diferentes categorías expuestas de género, diversidad, participación local, igualdad y sostenibilidad en un sentido amplio, con diferentes perspectivas desde el corpus seleccionado.


[1] Documento CONPES 4011. Consejo nacional de política económica y social. República de Colombia. Departamento nacional de planeación política nacional de emprendimiento. DNP

LEY 2125 DE 2021 (Agosto 4). “Por medio de la cual se establecen incentivos para la creación, formalización y fortalecimiento de las micro, pequeñas y medianas empresas lideradas por mujeres y se dictan otras disposiciones – ley creo en ti”. CONGRESO DE COLOMBIA.

[2] Rey, G. (2021) Historias sobre la economía naranja: de lo personal a lo público. En García Ramírez (Ed.) Economía política de los medios, la comunicación y la información en Colombia. Universidad del Rosario

Glotopolítica, un campo de estudios sobre lenguaje y política.

Reseña de Artículo: Molina Ríos, J. A. (2019). Estudios del lenguaje desde una perspectiva glotopolítica. Signo y Pensamiento38(74). https://doi.org/10.11144/Javeriana.syp38-74.elpg 

Por Luis Eduardo Ospina

Este artículo reviste de especial interés para los investigadores que están interesados por la capacidad de la lengua en particular, y del lenguaje en general, de incidir sobre el mundo.

Juliana Molina propone un recorrido conceptual sobre la glotopolitica entendida como un campo de conocimiento que se pregunta por las prácticas lingüísticas que legitiman, reproducen y transforman las relaciones sociales y las estructuras de poder. Este campo del conocimiento engloba las diversas formas en que una sociedad actúa sobre el lenguaje y sobre la lengua. Aspectos como la legislación sobre la lengua (oficial y las minoritarias) de parte de un Estado-Nación, el carácter “adecuado” del uso de la lengua indicado en los diccionarios, por ejemplo; y los elementos ideológicos inherentes a las lenguas son algunos de los temas de interés de la glotopolítica. 

De acuerdo con Molina la glotopolítica se entiende más ampliamente como el estudio de las intervenciones en el espacio público del lenguaje y de las ideologías que tales intervenciones activan. Estas intervenciones se asocian con posiciones sociales y se preguntan por los modos en que el lenguaje participa en la instauración, reproducción o transformación de entidades políticas, relaciones sociales y estructuras de poder. 

El artículo se divide en tres secciones. 1- Las representaciones del lenguaje: ideologías lingüísticas resultado de acontecimientos históricos, 2- La función política de la lengua: diccionarios, gramáticas y manuales de texto y 3- Las políticas lingüísticas: normatividad y regulación lingüísticas. 

Sobre “Las representaciones del lenguaje: ideologías lingüísticas resultado de acontecimientos históricos”, se acude al concepto “ideogema” (Angenot, 1982, citado por Molina, 2019), para referirse a las máximas que funcionan como fundamento del discurso. Un ideologema es una idea que se logra estabilizar en la sociedad y, por ello, está interiorizado y naturalizado en la lengua. Los ideologemas son opiniones e ideas consagradas y evidencias comunes aceptadas por la mayoría, que no se someten a discusión.

En la sección “la función política de la lengua: diccionarios, gramáticas y manuales de texto”, cabe destacar la relación existente entre una forma hegemónica de usar la lengua (establecida por las disciplinas que normativizan el lenguaje) y la ideología nacionalista. Juliana Molian se fundamenta en Lauria, para indicar que la producción lexicográfica está intrínsecamente asociada con la idea de nación. En textos como el diccionario se pone de manifiesto la preservación de la unidad de la lengua española o castellana. Así, la ideología que subyace a la lexicografía propone una forma de sociedad y construye un determinado imaginario nacional. En este punto, los diccionarios operan como instrumentos al servicio de la construcción de la nación (Lauria, 2010, p. 731 citado por Molina, 2019).

En la sección “Las políticas lingüísticas: normatividad y regulación lingüísticas” Juliana Molina se sustenta en Arnoux (2008b), para indicar que las políticas lingüísticas cumplen varias funciones, entre ellas están: expresar la oficialidad de las lenguas en los Estados, determinar planes y acciones en los sistemas educativos, administrativos y otros medios y estimular y orientar procesos de integración en los que la enseñanza de lenguas cumple un papel fundamental.

El artículo cierra con una reflexión, acerca de los estudios del lenguaje y el campo de la glotopolítica. Indica que los desarrollos desde la perspectiva glotopolítica han aportado al estudio de las políticas lingüísticas, especialmente, en países donde se han realizado tratados de comercio. En este marco de reflexión, las preguntas de qué se regula, quién regula, cómo y cuándo se regula hacen parte de la planificación lingüística, la cual hoy en día no solo esta mediada por asuntos puramente lingüísticos sino, en su base por aspectos políticos y económicos y en últimas ideológicos.

Fin de la Reseña.

EL CONTROL SOBRE EL CUERPO Y LA PALABRA

En esta reseña se analizará el texto “Ideologemas del español en la primera mitad del siglo XX en Colombia” que da cuenta de los esfuerzos por construir un proyecto de modernidad y de nación a partir de sistemas simbólicos y culturales como la higiene o el lenguaje. Para esto, la autora parte de definir la glotofagia o glotopolítica como una de las prácticas comunes para la imposición de una cultura sobre otra, que termina por anularla.

La autora nos habla que “el estudio de la lengua no solo se interesa por comprender el contexto social y político en el que emerge, sino que también se enfoca en la regulación que esta establece en la vida social y política… La lengua sirve para permitir el ejercicio de poder y para crear sistemas simbólicos por medio de los cuales se puede ejercer una función política de dominación, en la medida en que lo simbólico también impone un significado al mundo y a las relaciones sociales.” (Molina, 2019). La glotopolítica sería la instauración de un sistema social basado en la glotofagia, siguiendo la definición de Wikipedia: “La glotofagia (del griego glosa, “lengua”; y phagos, “comer”), lingüicidio o genocidio lingüístico designa el proceso político-social mediante el cual la lengua de una determinada cultura desaparece parcial o totalmente, víctima de la influencia, en mayor parte directa y coercitiva, de otra cultura… La desaparición de una lengua no guarda relación con alguna supuesta inferioridad, o superioridad, de su sistema lingüístico, sino que se relaciona con factores no lingüísticos como pueden ser la inferioridad militar de un pueblo sobre otro o las posibilidades de resistencia del pueblo que la habla.” (Wikipedia)

Esta práctica sistemática que lleva más de 500 años en nuestra región y que se ha identificado en diferentes momentos de la historia de la humanidad, entiende el poder simbólico del lenguaje como uno de los principales elementos de cohesión social y ve en el exterminio de la lengua la única forma de acabar por completo con una comunidad. En nuestro país actualmente se conocen 70 lenguas de ellas 65 son indígenas, sin embargo, a la llegada de los españoles a América, “se encontraron con una gran diversidad de lenguas porque, posiblemente, Sudamérica era el territorio de mayor diversidad lingüística del mundo, siendo las lenguas nativas innumerables. Se llegó a indicar unas ciento setenta grandes familias de idioma con la particularidad de que cada uno de esos grupos lingüísticos, que venía a ser como el indoeuropeo, comprendía numerosas lenguas y éstas a su vez, un buen número de dialectos que con frecuencia se hallaban muy distanciados entre sí, cuyo número sólo para la América meridional se ha calculado en más de dos mil hablas locales o variedades dialectales.” (Pedroviejo, 2012). Es interesante ver como en el territorio que hoy se conoce como Colombia cada pueblo conservaba su manera de llamar las cosas, pero lograban comunicarse con otros pueblos al comerciar. El proyecto de exterminio que siguió hasta prácticamente el siglo XXI se hace evidente en los textos escolares, leyes, artículos en medios e inclusive en el habla cotidiana donde aún se expresan insultos como guaricha o indio.

La lengua ha sido y sigue siendo un espacio de luchas intensas y acciones de poder que se ejercen sobre el uso cotidiano a través de colegios e instituciones religiosas. En Colombia, por ejemplo, la ortografía y el uso correcto del lenguaje ha sido una manera de constituir divisiones en lo social, económico, de propiedad, inclusive de derecho a existir. El habla correcta permite al que escucha, saber la procedencia y la forma de tratar al que habla, los errores en el lenguaje evidencian la falta de educación y la pertenencia a una clase que no ha sido educada a cabalidad, según las reglas de la modernidad o siguiendo a Bourdieu, las que no tienen suficiente capital cultural.

Entrando el siglo XX el uso correcto del lenguaje se comenzó a relacionar con otras prácticas propias de las élites, muchas de ellas aprendidas en el extranjero. Inclusive, según la lectura, se desarrolló un complejo aparato de selección social a partir de estos elementos, “El imaginario de la blancura producido por el discurso de la pureza de sangre fue una aspiración internalizada por todos los sectores sociales de la sociedad colonial y fungió como el eje alrededor del cual se construyó (conflictivamente) la subjetividad de los actores sociales. Ser “blancos” no tenía tanto que ver con el color de la piel, como la escenificación personal de un imaginario cultural tejido por creencias religiosas, tipos de vestimenta, certificados de nobleza, modos de comportamiento y (esto es muy importante) formas de producir y transmitir conocimientos… En esta misma línea, se consideraba que la mugre, la deficiencia alimenticia y la falta de moral e higiene precipitaban el pueblo hacia la degeneración (Hering, 2013)” (Molina, 2019).

Otra autora que ha dedicado su trabajo a las formas en que se construyeron el cuerpo y la comunidad en los últimos siglos, fue Zandra Pedraza, que nos dice como “la educación del cuerpo fue uno de los diversos procesos que debieron modificarse en el país para que al menos algunos grupos adoptaran varios aspectos formales de las burguesías europeas. Muchas actividades privadas se convirtieron paulatinamente en hábitos corporales de apariencia tan natural que su sentido inicial desapareció entre las ruinas cotidianas.” (Pedraza, 2012). Hace evidente un proceso del que hicieron parte diferentes sistemas, por ejemplo el educativo, con la creación de los colegios Gimnasio Moderno y Femenino y la inclusión en las cartillas de estudio de las obligaciones tanto en la higiene cotidiana, como del vestir o los modales, entre otros elementos que constituyeron el deber ser.

Para Pedraza, esta educación se centraba en el cuerpo como vehículo para lograr la modernidad en la naciente nación, “[e]sta laboriosa educación del cuerpo hizo parte de los muchos esfuerzos emprendidos en Colombia desde el inicio de la república para que la identidad nacional cobrara vida… Junto a factores como el enaltecimiento de la raigambre europea, la lengua castellana, la religión católica, el mestizaje y el territorio, con sus posibilidades éticas y productivas, se consideró que otros factores también debian entrar a hacer parte de la experiencia de los ciudadanos para alentar la identidad nacional.” (Pedraza, 2012)

Este ejercicio de nación es también un ejercicio de poder donde las élites continúan construyendo las reglas para su buen vivir a partir de lo que aprenden principalmente en el exterior y no le permiten acceder a los demás, sino a través de ellos. Había una forma natural de llegar a estos aprendizajes y se constituía con viajes al extranjero, haciendo parte de círculos de conocimiento, naciendo en entornos donde estas reglas ya estaban incorporadas, y otra que era dolorosa y obligaba una transformación que era impuesta por cartillas, colegios e instituciones religiosas, como por el enjuiciamiento cotidianidad donde una persona podría pasar la pena de no saber hablar. Como hace evidente Molina, “Por tanto, la civilización representaba un ideal desde el cual se construían dispositivos diferenciadores. “Donde hay orden, hay poder: donde hay poder, subordinación; donde alteridad, clasificación” (Hering, 2013, p. 390).” (2019), la lengua fue entonces un dispositivo de blanqueamiento. Cantinflas y Don Chinche son respuesta a estas obligaciones, retomando la realidad cotidiana de la mayoría de las personas en países como Colombia, llena de palabras y formas extrañas de decir las cosas, de errores y disculpas, de tácticas que permiten caer bien a pesar de sonar mal, y poniéndola como un atributo y no como algo a cambiar.

Este proyecto de usar la lengua para el progreso nace con la industrialización que demanda en el país una nueva clase de trabajadores que acepten las reglas de la élite para hacerse parte de sus empresas. “Mi hipótesis es que la industrialización del país demandaba una nueva relación de las personas con el movimiento y con ello la emergencia de unas subjetividades cinéticas capaces de hacer realidad el orden social imaginado –pero no realizado– por las elites liberales del siglo XX. (p. 12)… Esto se hizo evidente en el Congreso (1919) arriba mencionado cuando se señaló que: A fin de formar hombres que, mediante una adecuada educación científica, puedan atender a las necesidades y exigencias de la vida mercantil, todos los gobiernos se esfuerzan por crear y sostener escuelas en donde a los jóvenes les sea dable consagrarse al estudio de las matemáticas aplicadas al comercio, la geografía económica, los diversos medios de transporte, las tarifas aduaneras, la moneda, la organización bancaria, la legislación mercantil comparada, los progresos de la física y de la química en sus relaciones con los productos comerciables, las principales lenguas extranjeras con su aplicación al comercio y la vida internacional contemporánea. (p. 26)”. (Molina, 2019). Como vemos, los nuevos empleados debían estar a la altura de un mundo imaginado por las élites siguiendo patrones aprendidos en el exterior y debía incluir conocimientos científicos, religiosos y culturales, como la lengua propia, la del país.

Como nos menciona Pedraza, la élite criolla vive, y sigue viviendo, la segregación en el exterior y se proyecta sobre sus empleados convirtiendo este estigma en una forma de segregación en el país. “El estigma impreso por el sentimiento de hacer parte del mundo civilizado pero ser rechazado por él lo reconoció la élite en los cuerpos propios y en los de los habitantes de las más diversas regiones del país.” (Pedraza, 2012).

La lengua también funciona como dispositivo de progreso a partir de su riqueza simbólica y permite usar palabras que son conceptos y que cargan un extraño poder sobre la realidad cotidiana: prestigio, riqueza, belleza, felicidad, poder, entre otros, son términos codiciados en países como Colombia que parten de la imposición del capital como sistema económico, pero, como tanto en nuestro país, es parasitado y convertido en un extraño concepto en manos de narcotraficantes que se enriquecen sin educación, sin capital cultural, y a los que todos estos dispositivos en vez de querer corregir, adoptan y convierten en nuevas formas de existir, dándole paso, por la misma vía, a la libertad y las nuevas formas de pensamiento en un país construido a retazos. El narco ahora es portador de estos conceptos como riqueza, poder y felicidad, y la élite deja de luchar para aceptarlo y no perder sus comodidades.

Finalmente, y como vimos al comienzo, la lengua se consolidó como elemento esencial en la consolidación de la nación. La educación fijó como principal el aprendizaje del español y se hicieron esfuerzos tanto públicos como privados para lograr que todos los habitantes del país conocieran y vivieran en una sola lengua. Entre los textos a resaltar, el Convenio No 169 sobre Pueblos Indígenas y Tribales en Países Independientes. OIT, en su artículo 28 dice, “Deberán tomarse medidas adecuadas para asegurar que esos pueblos tengan la oportunidad de llegar a dominar la lengua nacional o una de las lenguas

oficiales del país.” Lo que se debe tomar en una doble lectura: Por un lado, fue importante para lograr la igualdad en diferentes regiones del país a través de lograr acceso a la lengua común, pero por otro, este mismo esfuerzo terminó fortaleciendo la idea de una sola lengua y ayudando a la extinción de otras lenguas en el país.

Como mencionamos, por un lado, “En esta resolución se considera que es necesario extender la cultura colombiana en las capas populares del pueblo, con el fin de mejorar su desarrollo espiritual y afianzar un conocimiento sólido de nuestra nacionalidad. Además, con la creación, en cada uno de los municipios del país, las Juntas de Alfabetización lucharon contra el analfabetismo.” (Molina, 2019). En este sentido nacieron proyectos como Radio Sutatenza que, según la página de Señal Memoria, “Radio Sutatenza fue creada en 1947 para mejorar la eficienciente educación del campesinado colombiano y su calidad de vida. En su momento, se volvió una herramienta tan básica como el azadón. Hoy su historia es un referente de modernización y democracia.” (Señal Memoria). Si bien este proyecto permitió la alfabetización, también hizo parte de la construcción de un proyecto de nación, “Derivado de este contexto, la enseñanza del idioma patrio se convirtió en un proyecto nacional a través del cual la sociedad se integraba en un marco común, el cual se dirigía hacia la modernidad. En este sentido, el español se configuró en el eslabón donde se articularon el proyecto moral y político en un solo camino de consolidación de la nación. Y en un marco más amplio, la educación se configura como un pilar para lograr el proceso civilizatorio, en el cual se consolida la nacionalidad y un idioma único. La lengua es el espíritu de la nación. Por ello, “enseñar el castellano era propender por la ‘unidad nacional’” (Pineda, 2000, p. 106).” (Molina, 2019).

Concluimos siguiendo a Molina: “En definitiva, se puede señalar que la lengua permitió abonar en el camino del proyecto nacional hacia la consolidación de una misma sociedad que aspira el desarrollo y avanza hacia el progreso. Finalmente, en palabras de Castro-Gómez (2008), “la nación surgió como una forma de civilizar y normalizar las poblaciones, bajo los objetivos del capitalismo industrial y de la constitución de un orden social burgués” (p. 20). Así mismo, aparece una identidad nacional en la que se reconoce la población; pero es precisamente a través de las identidades que se generan inclusiones y exclusiones sociales, puesto que, retomando a Castro-Gómez (2008), las identidades no son solo objeto sino mediadoras de las disputas sociales, de la reproducción o la confrontación de los andamiajes de poder en las diferentes escalas y ámbitos de la vida social.” (Molina, 2019).

Pero las nuevas identidades juegan con el lenguaje y van construyendo prácticas que se han tenido que aceptar a fuerza de popularización. El lenguaje que se emplea en todo tipo de chats, o en elementos dentro de la conversación como memes, tuits, inclusive en videos de tik tok, han dado un nuevo uso al lenguaje que será difícil de detener. En el texto “El Trap. Filosofía millenial para la crisis en España”, Castro hace referencia a una conversación con un amigo editor: “M bas a korejir las faltas d hortografia?????

Mi amigo editor estaba ante un dilema. Si no corregía las faltas de ortografía de Yung Beef, el libro sería ilegible; pero, si las corregía, entonces ya no sería un libro de Yung Beef. ¿Qué hacer ante esta situación? ¿Dejar las erratas del trapero so peligro de que nadie las entendiera o pulir su gramática a costa de que no pareciera él mismo? ¿Apostar por lo real pero nulo o por lo adecuado pero inauténtico?” Esta discusión demuestra que diferentes aspectos culturales han influido el sueño de autorregulación del capitalismo económico y que son ahora dinámicas como las del fandom, la cooperación y la viralización, las encargadas de poner el valor sobre las mercancías y que cada vez más el lenguaje debe ceder a un poder mayor actual como el de lo económico y lo digital. 

BIBLIOGRAFÍA

Castro, E. (2019) El Trap. Filosofía millenial para la crisis en España. Madrid: Errata Nature.

Molina, J. (2019) Ideologemas del español en la primera mitad del siglo XX en Colombia.

Pedraza, Z. (2011) La educación del cuerpo y la vida privada. En Borja, Jaime Humberto y Pablo Rodríguez​​ (dirs). Historia de la vida privada en Colombia. Tomo II. Los signos de la intimidad. El largo siglo XX. Bogotá: Taurus.

Juan Manuel Pedroviejo Esteruelas (2012) Primeros contactos del español con las lenguas indígenas de América. Revista de Estudios Filológicos.

Wikipedia. La glotofagia, en https://es.wikipedia.org/wiki/Glotofagia. Acceso 22 de agosto 2021.

Señal Memoria. La importancia de Radio Sutatenza en Señal Memoria, en https://www.senalmemoria.co/articulos/la-importancia-de-radio-sutatenza-en-senal-memoria- Acceso 22 de agosto 2021.