¿Se puede automatizar el estudio de las interpretaciones metafóricas? — S

La teoría conceptual de la metáfora, que hace parte las teorías en semántica cognitiva propuestas por George Lakoff y Mark Johnson (Lakoff & Johnson, 2015), es, en general, una propuesta muy útil para estudiar procesos cognitivos de interpretación subyacentes a los discursos humanos. A grandes rasgos, esta teoría implica entender las metáforas como proyecciones de rasgos conceptuales que van de un dominio fuente a un dominio meta. Un dominio es, por así decirlo, un contenedor de ideas relacionadas con una etiqueta conceptual. Por ejemplo, podríamos decir que el dominio BRUJA contiene rasgos como: hechizo, nariz puntiaguda, encantamiento, brebaje, vuela en escoba, etc.

Normalmente, las metáforas tienen la estructura DOMINIO META es como DOMINIO FUENTE, y una interpretación metafórica consiste en proyectar ciertos rasgos de la FUENTE a la META (Ibarretxe-Antuñano & Valenzuela, 2012). Si lo decimos metafóricamente, consiste en hacer un préstamo de un dominio a otro. Por ejemplo, en el caso de la metáfora X PERSONA es como UNA BRUJA, podrían proyectarse algunos rasgos parciales de bruja sobre la conceptualización de la persona: digamos, es como una bruja porque es fea.

Adicionalmente, para Lakoff y Johnson, las metáforas conceptuales no existen en el terreno retórico y de la imaginación poética, sino que se extienden al terreno de la acción cotidiana. No solo usamos metáforas como expresiones, sino que las vivimos —de hecho, el título original del libro en inglés es “metaphors we live by”— o vivimos mediante ellas. Así, sin que nos demos cuenta, cuando decimos: “¡ya veo!”, estamos metaforizando el entender como ver, o cuando decimos: “estoy perdiendo el tiempo”, estamos metaforizando el tiempo como dinero.

Las metáforas conceptuales no surgen solo en la superficie del discurso, en el texto, y no pueden ser analizadas solamente a través del análisis de las estructuras textuales formales. Como la metáfora es un proceso conceptual, una cosa es una expresión metafórica, es decir, un texto que detona una interpretación en una persona que activa sus capacidades para entender metáforas; otra cosa es la metáfora: la estructura de dominios en su cabeza, que no tienen necesariamente que estar explícitos en el texto; y otra cosa es la interpretación: las proyecciones particulares que un dominio le presta al otro. De este modo, aunque el texto sea el mismo, e incluso los dominios sean los mismos, el sentido de una interpretación metafórica puede cambiar totalmente. Pensemos, por ejemplo, en el caso de una carta de amor en el que una persona le dice a otra: “tú me hiciste brujería” versus una situación en la que una persona, ofendida, le grita a otra: “bruja”. Aunque la estructura pueda ser la misma, X PERSONA es como BRUJA, pragmáticamente el sentido es opuesto, una es un halago: “me hechizaste de amor” y la otra es una ofensa: “eres horrible”.

La velocidad con la que se mueve Twitter implica que poder analizar sus discursos, que circulan ágil y dinámicamente, requieren de métodos igualmente ágiles. De hecho, el texto de Mancera y Pano (2013), aunque describe en gran detalle el funcionamiento de la plataforma, ya se ha desactualizado, en cuestión de relativamente pocos años, como pasa con muchos textos teóricos acerca de tecnologías contemporáneas. La plataforma ha transformado sus algoritmos, su interfaz, en incluso el límite de caracteres permitidos en los tweets. Para dar cuenta de esta agilidad, una estrategia clave para poder entender los discursos que circulan en twitter consiste en tomar muestras representativas o en hacer análisis automatizados que puedan resumir y generalizar los contenidos. De este modo, se hace uso de estrategias de anotación manual o ayudada por inteligencia artificial, o se usan estadísticas descriptivas como el conteo de frecuencias en grandes volúmenes de tweets, u otras estadísticas sumarias. Así, el análisis del discurso se ve ayudado por metodologías cuantitativas que permiten manejar grandes volúmenes y que enriquecen la lectura de los tweets que, por la propia lógica de la plataforma, son muy breves y escuetos (pero no por eso poco significativos).

Sin embargo, aquí cabe preguntarse si estos procesos rápidos y masivos podrían dar cuenta de los conceptos que ponen en juego las metáforas que usamos en la vida cotidiana, o que existen en expresiones retóricas como la propaganda política. Como dijimos, la metáfora no está en el texto sino en la cabeza de quien la interpreta, así que contar la frecuencia de aparición de ciertos términos le hace justicia realmente al significado de un discurso si no se matiza, como vimos con el doble sentido de “bruja”.

Los problemas de los resúmenes estadísticos descriptivos han sido estudiados ampliamente en el campo de la visualización de datos. Un caso concreto son las demostraciones juguetonas de (Cairo, 2019; Matejka & Fitzmaurice, 2017) en las que crean conjuntos de datos completamente diferentes que, analizados estadísticamente, tienen los mismos promedios, medias, desviaciones estándar y correlaciones. A través de esta demostración, los autores de estos ejercicios investigativos demuestran que, parafraseando a Cairo, “las estadísticas pueden mentir”. Así, una estadística sumaria puede tender a desinformar acerca del discurso, más que a permitir un entendimiento profundo.

Tal vez, para producir interpretaciones más cercanas a las mentes de las personas tendríamos que crear métodos automatizados y ágiles que se parezcan a las capacidades cognitivas que tenemos los humanos. Por ejemplo, algoritmos metafóricos que aprendan sus propios dominios y que puedan hacer proyecciones flexibles. Eso, como ha mostrado la inteligencia artificial, en sus relativos éxitos pero sus profundos fracasos, no es una tarea fácil. Siguiendo a Cairo, un análisis del discurso que no caiga en trampas estadísticas debería también poder dar cuenta de la ambigüedad y la inconsistencia, que son comunes en el discurso humano, que es fluctuante y contiene muchas minucias implícitas.

Dibujo20190328 Alberto Cairo Datasaurus dataset - La Ciencia de la Mula  Francis
El datasaurio. Diferentes conjuntos de datos con las mismas estadísticas sumarias.

Referencias

Cairo, A. (2019). How charts lie: Getting smarter about visual information (First edition). W. W. Norton & Company.

Ibarretxe-Antuñano, I., & Valenzuela, J. (2012). Lingüística cognitiva. Anthropos.

Lakoff, G., & Johnson, M. (2015). Metáforas de la vida cotidiana. Cátedra.

Mancera Rueda, A., & Pano Alamán, A. (2013). El discurso político en Twitter: Análisis de mensajes que «trinan» (Primera edición). Anthropos.

Matejka, J., & Fitzmaurice, G. (2017). Same Stats, Different Graphs: Generating Datasets with Varied Appearance and Identical Statistics through Simulated Annealing. Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, 1290-1294. https://doi.org/10.1145/3025453.3025912

Análisis crítico de narrativas cinematográficas — S

La investigación del Análisis Crítico del Discurso (ACD) puede beneficiarse de los métodos de Análisis de Contenido (AC) de muchas maneras, pues el AC es término que engloba en realidad a muchas prácticas diversas, que parten de distintas estrategias metodológicas y que tienen diferentes alcances. Ahora, como ejemplo concreto, se me ocurre que el AC tiene un fuerte potencial para le investigación crítica en el sentido en el que permite detectar patrones y estructuras superficiales en los contenidos a través de comparaciones estadísticas. Por ejemplo, recuerdo que en algunos ensayos el teórico del cine David Bordwell se ha dedicado a analizar las estructuras de distintos géneros y enfoques cinematográficos. Así, luego de analizar un número enorme de cintas, notó que normalmente, en las películas hollywoodenses la exposición del problema principal del argumento sucede aproximadamente a los 25 minutos de iniciada la película, y suele seguir una estructura de tres actos muy bien regimentada. En una línea similar, el director Kogonada tiene un ensayo visual en el que hace una comparación entre los dos cortes de la película Terminal Station (1953) que surgieron de las diferencias creativas entre el director neorrealista italiano Vittorio De Sica y el productor estadounidense David O. Selznick. Como muestra Kogonada, las dos películas, producidas con el mismo material pero con montaje diferente, muestran dos intenciones ideológicas diferentes, que también se pueden derivar de las observaciones de Bordwell. En términos generales, el cine Hollywoodense tiende a ser más complaciente y predecible, pues se considera que los elementos que no aportan a la trama son desechables, que el argumento tiene que estar claramente definido, y que los espectadores esperan encontrar un formato familiar. Por el contrario, la postura neorrealista privilegia en la edición dejar momentos en los que los personajes principales salen de escena, en la que se ven situaciones arbitrarias realizadas por extras o personajes secundarios, y, en general, una forma de edición que para un público acostumbrado a películas de acción sería considerado como lento. De este modo, unas observaciones hechas a través de métodos de análisis de contenido, pueden llevar a interpretaciones más ricas en términos de interacciones sociales. De hecho, en relación con la clase de Seminario de Área del doctorado, me hace pensar que un análisis de contenido de la estructura narrativa del cine indígena podría llevar a notar relaciones profundas con respecto a relaciones de poder (por ejemplo, que en los festivales estas películas no se muestren en los principales auditorios porque se pueden considerar demasiado lentas), equilibrios entre formas de significación para diferentes públicos e incluso estrategias narrativas dar lugar a entendimientos críticos de este discurso en contraposición con otros. Este tipo de estrategias pueden ser relevantes para trabajos como los del compañero Lucho, que está interesado en las formas de producción propias de las comunidades indígenas.

Una historia interactiva sobre terminar la tesis – Sergio

Para este ejercicio de una metodología narrativa alternativa como forma de análisis discursivo quisiera proponer una historia interactiva construida con una librería para crear Biteratura, o literatura electrónica, que he estado construyendo poco a poco, llamada Aventura.js. Esta historia interactiva está basada en las apreciaciones de Carlino (2005) acerca de los discursos que manifiestan distintos estudiantes de maestría con respecto a su percepción del proceso de escritura de la tesis.

La historia interactiva se puede leer a continuación:

Taller de codificado — Sergio

Para este ejercicio hice una relectura y ajusté la codificación que ya había hecho a dos representantes de comunidades de humanidades digitales en latinoamérica y añadí y codifiqué una entrevista más. Podría decir que los métodos de codificado que usé fueron una mezcla de descriptivos, in vivo y de causalidad. Creo que el proceso de relectura y refinamiento de los códigos fue muy útil porque me permitió ver con más claridad elementos discursivos que no eran tan evidentes durante el primer proceso de codificado. Este ejercicio me servirá tanto para mi proyecto final como para mi proyecto de investigación del doctorado. En la relectura pude ver que más que una dicotomía entre comunidades de prácticas y horizontes epistemológicos, lo que hay en la comunidad de prácticas es una serie de tensiones que opernan en distintos ejes. Esos ejes están representados en los códigos que terminé anotando y que se pueden ver en la tabla a continuación. Sin embargo, las distinciones entre la práctica y la conceptualización siguen siendo relevantes a grandes rasgos, por ese motivo, las usé como categorías temáticas.

TEMACATEGORÍACÓDIGODESCRIPCIÓNFREQ.
El campo en la prácticaExperiencia personal en las HDFormación, trayectoria e intereses participanteMenciones a la formación académica o a los intereses investigativos o personales de las participantes13
El campo en la conceptualizaciónReflexión sobre el humanismoParticularidades del humanismo en LatinoaméricaReflexiones hechas por las participantes entrevistadas a las diferencias, caracterizaciones y particularidades de las humanidades (en general) en Latinoamérica. Especialmente reflexiones con respecto al por qué son como son las humanidades en Latinoamérica en cuanto a su historia y sus fundamentos epistemológicos20
Datos generalesDescriptivoNombres propiosCódigo descriptivo con menciones a nombres propios hechas por las participantes entrevistadas42
Datos generalesDescriptivoProyectos, instituciones, hitosCódigo descriptivo con menciones a proyectos relevantes para las humanidades digitales, instituciones que han conformado la comunidad o hitos históricos en el desarrollo del campo en Latinoamérica33
El campo en la prácticaExperiencia personal en las HDAdopción humanidades digitalesReferencias en cuanto a la adopción del término “humanidades digitales” en las prácticas de las participantes y sus comunidades, y referencias a contactos con comunidades de prácticas que ya hacían uso del término o que sirvieron como inspiración14
El campo en la prácticaConformación de la comunidadComunidad de prácticas y su caracterizaciónReferencias a la comunidad de prácticas de las humanidades digitales en Latinoamérica, sus intereses y sus limitaciones. Caracterizaciones de los participantes y las instituciones involucradas en la comunidad Latinoamericana38
El campo en la prácticaConformación de la comunidadComunidades desconectadasReferencias a comunidades, prácticas, disciplinas que no se han querido o no han podido integrar al campo de las humanidades digitales, o se consideran separadas de las humanidades digitales26
El campo en la conceptualizaciónReflexión epistemológicaReflexión aproximación epistémicaReflexiones con respecto a la construcción de una aproximación epistémica concreta con respecto a las humanidades digitales desde Latinoamérica. Referencias a la necesidad de producir teorías situadas. Conceptualizaciones que definen o especifican las humanidades digitales, reflexiones con respecto a sus compromisos epistémicos20
El campo en la conceptualizaciónReflexión epistemológicaProblematización de las humanidadesReflexiones al respecto de la definición de las humanidades, su condición civilizatoria, sus prácticas académicas, sus formas de exclusión, sus formas particulares de operar, su historia, sus transformaciones, etc.23
El campo en la prácticaConformación de la comunidadInstitucionalización y disciplinasReferencias a posibles oportunidades o problemas que puede encontrar el campo de las humanidades digitales en cuanto a su validación institucional, su reconocimiento o la consecución de apoyo. Además, referencias al lugar de las humanidades digitales frente a las diferenciaciones disciplinares propias de la academia32
El campo en la prácticaConformación de la comunidadNecesidades y problemas del campo hdReferencias a problemas concretos o necesidades que debe abordar el campo de las humanidades digitales, en Latinoamérica y en general, para consolidarse y desarrollarse34
El campo en la prácticaConformación de la comunidadEstrategias comunitariasReferencias a estrategias que se hayan tomado desde la comunidad local o general de humanidades digitales para fortalecerse e integrar a más personas o grupos, o posibles ideas para hacer más fuerte a la comunidad25
El campo en la conceptualizaciónReflexión epistemológicaConceptos hd de interés en LatinoaméricaConceptos que las participantes consideran que definen el horizonte epistemológico y los intereses de las humanidades digitales en Latinoamérica. Pueden ser referencias directas a los conceptos o ejemplos de proyectos en los que se apliquen los conceptos33
El campo en la conceptualizaciónDiferencias. Carencias y oportunidadesInfraestructurasEjemplos o reflexiones de las participantes a oportunidades o carencias en términos de infraestructuras, vistas desde un punto de vista amplio (infraestructuras físicas, de conocimiento, de circulación de la información, de desarrollo tecnológico, etc.)17
El campo en la conceptualizaciónReflexión epistemológicaEl valor de lo digitalReflexiones de las participantes con respecto a qué es lo que puede aportar “lo digital” a lo humanístico o a las comunidades en las que se insertan las participantes8
El campo en la conceptualizaciónDiferencias. Carencias y oportunidadesEl centro y las márgenesComparaciones entre el estado de las humanidades digitales en contextos hegemónicos (como el europeo o el estadounidense) en comparación con América Latina o el sur global en general, pero también reflexiones sobre pequeñas márgenes en contextos más epecíficos (márgenes dentro de lo que se considera central, diferencias regionales, etc.)25
El campo en la conceptualizaciónReflexión epistemológicaEl valor de las humanidadesReflexiones de las participantes con respecto al lugar y al valor de las humanidades y el humanismo3

Ventajas y desventajas de los análisis de contenido cuantitativos y cualitativos — Sergio

Aunque usan el mismo objeto de estudio: un conjunto de textos en el sentido amplio (que puede abarcar textos escritos, imágenes, audio, video…), el método de análisis de contenido cuantitativo y el método de análisis de contenido por medio de codificación cualitativa parten de premisas diferentes para desarrollar sus metodologías: mientras que el primero supone un sistema de reglas sistemáticas (es decir que abarcan por completo el corpus posible), replicables con exactitud y con resultados determinísticos; el segundo supone un proceso más ponderado de interpretación inferencial y abductiva, en la que el investigador codifica los textos de su corpus de acuerdo a diferentes estrategias como la codificación exploratoria (más que todo intuitiva), la codificación in vivo (usando los mismos términos que los participantes), la codificación descriptiva (que anota metódicamente pequeños términos), etc.

La principal ventaja del análisis de contenido cuantitativo es que, gracias a sus reglas “objetivas” (o sea, determinísticas, según la definición de Andréu Abela (2000)), permite detectar patrones de superficie en la forma de los textos que se están estudiando. Estos patrones, a su vez, y dependiendo del tipo de texto recogido, pueden permitir encontrar esquemas narrativos, usos lingüísticos repetidos, relaciones entre unidades léxicas, y en general caracterizar los textos de acuerdo con estructuras formales a gran escala. Además, la transformación del contenido del texto en cuantificaciones numéricas desbloquea una serie de procesos estadísticos y algorítmicos que permiten revelar nuevas lecturas que, aunque están en el contenido “manifiesto”, no se hacen evidentes a simple vista. Por ejemplo, con los datos estadísticos se pueden hacer visualizaciones que muestran distribuciones de datos extraídos de los textos, o con algoritmos de clustering se pueden agrupar temáticas recurrentes.

En cuanto a la principal desventaja de la codificación cuantitativa, el contenido “manifiesto” puede llevar a interpretaciones de superficie que no dan cuenta de los sentidos complejos que puede connotar un texto. Un ejemplo claro son los distintos efectos semióticos y retóricos que suelen usar participantes cuando están hablando en un lenguaje cotidiano: sarcasmos (“¡bonitas las horas de llegar!”), metonimias (“hay que parar la fuga de cerebros”), metáforas (“x es un cerdo”), contrafácticos (“si hubiera dormido, no tendría dolor de cabeza), etc. Cuantificar contenido manifiesto suele partir de la suposición de que un signo léxico es una entidad estable de la que se pueden contar sus ocurrencias, o sea, que se puede suponer que la misma palabra en distintos contextos se refiere a lo mismo. Esto omite completamente los matices del lenguaje real bajo la apariencia de la sistematicidad. La noción de contexto ayuda a diferenciar con mayor profundidad las diferencias, pero, en ocasiones, una noción de contexto muy restrictiva, que también se supone como claramente definible, es insuficiente.

La principal ventaja de la codificación cualitativa, que para algunos puede también ser su principal defecto, es el aspecto interpretativo que ofrece lecturas complejas de los textos. Como afirman tanto Elliot (2018) como Saldaña (2013), la codificación, especialmente si se realiza relecturas y recodificaciones posteriores de los textos, les permite a los investigadores familiarizarse con sus objetos de estudio de una manera que no es posible con los métodos automatizados que ofrece la investigación cuantitativa. Tanto es así que Saldaña sugiere aprender a codificar a mano, con hojas impresas y esfero en mano, más que con software de anotación especialmente creado para métodos de investigación en ciencias sociales. Sin embargo, esto también puede resultar desventajoso en términos de escala y tiempo, por eso Saldaña destaca como uno de los atributos de un buen investigador de codificado a la “paciencia”. Los corpus demasiado grandes, tanto en el número de textos como en la extensión de los mismos, aumentan la dificultad de la codificación. En esos casos se necesita recurrir a la anotación grupal o al crowdsourcing (por ejemplo, creando proyectos de ciencia ciudadana), que permiten que múltiples investigadores o ayudantes anoten partes del corpus. Por supuesto, esto reduce la familiarización con el corpus que obtendría un solo investigador, introduce múltiples interpretaciones que pueden resultar contradictorias o inconsistentes, pero aumenta la escala a la que se puede realizar el proceso.

Tratar datos cualitativos como datos numéricos, por ejemplo, contándolos, puede dar paso a interpretaciones erróneas. Por ejemplo, la codificación —como advierten Elliott y Saldaña—, debido a que en buena medida es un proceso interpretativo, no va a producir con exactitud resultados “objetivos” en el sentido de Andreu Abela, es decir, determinísticos, que produzcan la misma salida si se dan los mismos datos de entrada. Así, contar el número de códigos que resultan de un texto darían más una impresión de los intereses del codificador que de la estructura del texto. No obstante, esto no es del todo negativo, si se tienen en cuenta las condiciones en las que se da la codificación, pues un conteo puede dar luces de patrones intuitivos que el investigador está descubriendo o hacia los que tiende su búsqueda, pero que no son todavía muy evidentes.

En cuanto a mi trabajo, considero que las dos metodologías pueden resultar útiles. El método de análisis cuantitativo puede servir para corpus extensos que tienen formatos relativamente preestablecidos y que no fueron recogidos por mi: entradas de blog, artículos académicos, proceedings de conferencias alrededor de las humanidades digitales, etc. Ese tipo de corpus puede encajar dentro de las premisas de análisis sistemático del análisis cuantitativo y, además, puede ser analizado en superficie para detectar patrones temáticos comunes en los textos. Por otra parte, el método de análisis cualitativo puede servir para los objetos textuales que estoy recogiendo yo mismo, especialmente las entrevistas a participantes de las comunidades nacionales en Latinoamérica. Como mi interés consiste en desarrollar un diagnóstico profundo de las dificultades, los horizontes y las diferencias que existen en la construcción de las humanidades digitales en nuestro contexto, la codificación cualitativa puede dar el nivel de detalle que necesito. Además, con los experimentos que ya he realizado, he notado que la codificación cualitativa efectivamente permite ver sentidos profundos que los participantes comunican y que no quedarían expuestos con un análisis cuantitativo.

Referencias

Andréu Abela, J. (2000). Las técnicas de análisis de contenido: Una revisión actualizada. Fundación Centro de Estudios Andaluces, Universidad de Granada.

Elliott, V. (2018). Thinking about the Coding Process in Qualitative Data Analysis. The Qualitative Report. https://doi.org/10.46743/2160-3715/2018.3560

Saldaña, J. (2016). The coding manual for qualitative researchers. SAGE.

Avance 1 — Sergio

Título: las humanidades digitales en Latinoamérica, entre la comunidad de prácticas y el horizonte epistemológico

Objetivos

Como continuación de las exploraciones alrededor de mi proyecto de investigación, que se centra en los problemas de la construcción de unas humanidades digitales propias en Latinoamérica, quisiera aprovechar las discusiones y herramientas tecnológicas que hemos planteado en el curso con respecto al análisis del discurso para indagar acerca de dos conceptos que han surgido en mi diagnóstico inicial: la comunidad de prácticas y el horizonte epistemológico del humanismo digital en nuestro contexto. Ambos conceptos implican una concepción opuesta de las condiciones y el futuro de las humanidades digitales y, por tal motivo, quisiera usar técnicas de análisis del discurso para detectar las narrativas, frames conceptuales y constitución de actos de habla en sus concepciones. Este análisis puede servir para mi proyecto de tesis en el sentido en que me daría luces para poder justificar y orientar mejor mi propuesta de unos fundamentos básicos de los principios de lo digital desde el punto de vista humanísitico.

A continuación explicaré en más detalle mi propuesta para el proyecto final del curso:

Problema

En las indagaciones previas que he realizado (en buena parte gracias a la investigación hecha en el curso de Métodos avanzados de investigación 1), se ha asomado el problema de que las humanidades digitales en Latinoamérica se debaten entre dos apuestas discursivas: las humanidades digitales como comunidad de prácticas o las humanidades digitales como horizonte epistemológico. En este proyecto quisiera abordar estos dos discursos y estudiar en qué se diferencian sus narrativas, los frames conceptuales que los organizan, y los actos de habla que constituyen realidades sociales en su expresión.

En la indagación preliminar he notado que el discurso de las humanidades digitales como comunidad de prácticas plantea un terreno común para la interacción de distintas disciplinas tradicionales de las humanidades. En tal terreno se propicia un encuentro para compartir y usar herramientas tecnológicas útiles para las prácticas disciplinarias: por ejemplo, análisis de corpus en lingüística, anotación de textos en filología y literatura, georreferenciación en historia, análisis computacional de imágenes en historia del arte. La idea de la comunidad de prácticas mantiene los principios disciplinarios de la universidad contemporánea, es decir, mantiene identidades claras con respecto a las carreras, los campos de estudio y las metodologías de cada disciplina. Así, la comunidad de prácticas no se compromete a principios epistemológicos fuertes con respecto a lo digital sino que simplemente se ofrece como un facilitador de prácticas académicas. No inclusión de grupos que no han participado en la construcción de la comunidad

Por otra parte, las humanidades digitales como horizonte epistemológico implican entender lo digital no solo como un elemento instrumental útil para la investigación humanística, sino, por el contrario, como una forma de pensamiento fundamental para la cultura contemporánea. Así, las humanidades digitales como horizonte epistemológico plantean un compromiso fuerte con definir sistemas de conceptos, infraestructuras y modos de hacer que enervan profundamente el pensamiento humanístico; incluso, ponen en cuestión el quehacer de las humanidades, la noción de disciplina, y las prácticas de la universidad. Entonces este discurso apuesta por la construcción de una identidad de las humanidades digitales que no las subordina a la utilidad dentro de la comunidad de prácticas.

Población y fuentes

Mi población sería entonces la comunidad de humanidades digitales en Latinoamérica, y, para ser más específico, como fuentes quisiera continuar entrevistando a las representantes, es decir, presidentes, miembros de comités de base, u organizadores de las redes de humanidades digitales nacionales (ya entrevisté a las de México y Argentina). Tengo en mente, para estas nuevas entrevistas, a representantes de Colombia, Chile, Cuba y Brasil. Adicionalmente quisiera entrevistar a dos representantes de comunidades paralelas a las redes de humanidades digitales: un espacio de hacktivismo y un espacio de enseñanza digital campesina (las escuelas digitales de la ACPO), aunque, dependiendo del tiempo, estas entrevistas podrían posponer.

Tipo de información y método de recolección

Pienso realizar entrevistas semiestructuradas a las representantes de las comunidades nacionales, principalmente porque este tipo de entrevistas ofrece un sistema suficientemente ordenado para establecer preguntas relevantes para mi problema y, a la vez, suficientemente abierto para dar cabida a que se manifiesten los discursos subyacentes de las fuentes. Como método de organización de los datos busco codificar las entrevistas usando métodos de codificado tradicionales de las ciencias sociales: establecer una jerarquía de códigos, categorías y temas. Con esta información espero poder hacer un análisis discursivo en un nivel intermedio, enfocado principalmente en las diferencias semánticas entre las dos concepciones de las humanidades digitales que definí antes. Así, busco especialmente realizar un análisis de actos de habla: condiciones de la institucionalización de las humanidades digitales, compromisos epistemológicos, reglas constitutivas, actos ilocucionarios; un análisis de frames conceptuales: es decir, de nociones semánticas estructuradas; y un análisis de narrativas: es decir, de géneros narrativos.

Reseña Searle: Expresiones, significado y actos de habla — Sergio

Reseña

Capítulo 2: Expresiones, significado y actos de habla.

Searle, J. R. (1994). Actos de habla: Ensayo de filosofía del lenguaje (A. Alvarez, Trad.). Planeta-Agostini. Pp. 31 – 61.

En este capítulo del libro, John Searle continúa con su argumentación acerca de por qué el lenguaje está gobernado por reglas o, concretamente, por elementos convencionales instituidos que definen los significados de las expresiones emitidas por hablantes en contextos sociales. Para ello, Searle define en el capítulo distintos géneros de los actos de habla y, a continuación, pasa a especificar los sentidos particulares que atribuye a los conceptos de proposición, regla, significado y hecho.

En primer lugar, los géneros o categorías de los actos de habla son los siguientes: a) emitir palabras, es decir, establecer la constitución morfológica de las expresiones lingüísticas; b) referir y predicar, es decir, establecer en la expresión sobre qué cosa, proceso, evento o acción se está predicando algo (se está formando una proposición); y, finalmente, c) ejecutar actos ilocucionarios, es decir, manifestar cierta intención con la expresión: afirmar, preguntar, ordenar, explicitar un deseo, etc. Para Searle, los géneros de los actos de habla están anidados, pues para ejecutar actos ilocucionarios suele ser necesario crear proposiciones, y para crear proposiciones suele ser necesario emitir palabras (en la figura al final del texto se ilustra ese anidamiento). Es por esto que Searle afirma que “el ropaje gramatical de un acto ilocucionario es la oración completa” (p. 34).

Para detectar estos géneros en un acto de habla, se identifican los indicadores proposicionales (que no se explican en el capítulo que reseño aquí) y los indicadores ilocucionarios: cosas como el tipo de palabras, el todo de la voz, el modo del verbo, etc.

En cuanto al significado, basado en la teoría de John Austin, Searle establece que, si los actos ilocucionarios tienen que ver con las intenciones, los actos perlocucionarios se relacionan con los efectos de los actos de habla. En otras palabras, el acto perlocucionario implica un cambio en las actitudes intencionales del receptor del acto de habla. Por ejemplo, modificar una creencia, realizar un acto en el mundo, establecer un deseo, etc. Así, para Searle, y haciendo una crítica a Paul Grice, el significado consiste no en la intención del emisor (en lo particular de su acto ilocucionario) sino en los efectos perlocucionarios en el receptor. Particularmente, el efecto de “compresión”, es decir, de reconocer la intención que tiene el emisor de comunicar y el contenido proposicional que se (asume que) comunica.

Finalmente, para justificar cómo es posible que un receptor reconozca intenciones o comprenda qué es lo que busca significar un emisor, Searle establece que todos los lenguajes funcionan a partir de reglas constitutivas. Las reglas constitutivas, a diferencia de las reglas regulativas, en cierto modo “crean” el objeto que regulan. Bajo la condición: X cuenta como Y en el contexto C, permiten instituir o empezar a usar o a tratar algo como lo que la regla constituye. En otras palabras, las reglas constitutivas producen en el mundo nuevas especificaciones, nuevas posibilidades para actuar, nuevas formas de conducta. Uno de los ejemplos que usa Searle es el Jaque Mate, que solo existe en el mundo porque existen reglas del ajedrez que lo definen como tal. Así, las reglas constitutivas son las que permiten instituir o crear nuevas realidades sociales, lo que Searle llamaría “hechos institucionales”, que se diferencian de los “hechos brutos” en tanto su existencia depende de la construcción de convenciones sociales. El significado es, en consecuencia, un resultado de las reglas constitutivas de los lenguajes, pues son las convenciones las que le permiten a un receptor interpretar la intención y el contenido de un hablante.

Preguntas:

Aunque el texto de Searle me pareció muy sistemático y abundante en ejemplos claros, me queda una pregunta pertinente para las discusiones que se han llevado a cabo en el doctorado. De acuerdo con Searle: “los diferentes lenguajes humanos, en la medida en que son intertraducibles, pueden considerarse como plasmaciones convencionales diferentes de las mismas reglas subyacentes” (48). Es decir, para el autor, todos los lenguajes son manifestaciones de un sistema de reglas universales que existen en El Lenguaje. Sin embargo, y pensando en las discusiones que hemos tenido acerca de la interculturalidad y la coexistencia de distintas ontologías en el mundo, me pregunto si realmente todos los lenguajes son intertraducibles o incluso conmensurables, o si, por el contrario, existen reglas constitutivas intraducibles que muestran que más que unas reglas universales existen múltiples maneras de organizar el significado.

Otro cuestionamiento que se podría hacer a la propuesta de Searle es qué sucede con el razonamiento abductivo que puede realizar un receptor cuando da significado a lo que expresa un emisor. Según como lo define Searle, debido a su fuerte énfasis en las reglas sociales del lenguaje, el significado está dado por el reconocimiento de intenciones reguladas por tales reglas, que son hechos institucionales que preceden a la interacción. Sin embargo, como lo hemos visto en nuestra vida cotidiana infinidad de veces, la comunicación no solo opera bajo el sistema ordenado que propone Searle sino que está llena de equívocos, de lecturas no solo de intenciones sino de los aspectos estéticos de la comunicación, de conjeturas abductivas acerca del contexto y las ideas que exceden la interacción social inmediata. En mi opinión, todos estos actos también merecen ser llamados “significado” y tienen implicaciones en cómo interpretamos el discurso.

Corpus, discurso y canto de aves — Sergio

Una de las grandes riquezas que tienen los estudios del discurso es la multiplicidad de metodologías con las que se cuenta y la casi infinita posibilidad de mezclarlas. Como sucede con múltiples propuestas para aproximarse al análisis del discurso —por ejemplo con la propuesta crítica de Norman Fairclough—, los mejores resultados se obtienen cuando se estudia el discurso como un fenómeno con múltiples capas de complejidad: la pura organización interna de los textos, su existencia en contextos amplios, las capacidades e intenciones comunicativas de los sujetos, la constitución de realidades sociales, la circulación de los discursos en las tensiones del poder, etc. Así, el análisis de corpus, aunque se centra más que todo en las cualidades internas de los textos y carece de una capacidad explicativa suficiente para dar cuenta de cualidades semánticas más complejas, es una herramienta útil y tiene sus propias ventajas. La más importante, y como lo afirma el texto de Thornbury, es su potencial comparativo y estadístico. Por ejemplo, poder ver el lugar relativo de la aparición de ciertas palabras clave en los textos de un corpus permite hacerse ideas generales acerca de la constitución de una narrativa. Tales ideas generales, a su vez, permiten, por ejemplo, luego de un mayor refinamiento, establecer frames conceptuales, scripts, o espacios mentales comunes entre los sujetos estudiados.

Creo que el análisis de corpus es muy versátil, ofrece un horizonte investigativo que no ha sido explorado en su totalidad. Como ejemplo quisiera mencionar algo que he estado estudiando en una clase electiva ofrecida por la maestría en biología y que estoy tomando en este momento. Así como en análisis de corpus aplicado al discurso se estudian relaciones sintácticas en los textos, en ecología se pueden estudiar las estructuras informacionales de la comunicación de distintas especies animales. En el caso de los pájaros se ha descubierto que cantan con patrones que comparten cualidades con el lenguaje humano. Especialmente la capacidad de hacer referencias indéxicas dentro de sus “frases”. Estas referencias pierden fuerza en la medida en la que el referente se aleja de la referencia en la secuencia del canto. Como consecuencia, el canto de los pájaros sigue una ley de potencia similar a la que sigue el lenguaje humano. Así, a través de modelados matemáticos y computacionales, se puede ver que la comunicación animal es un sistema complejo. Este tipo de aproximaciones podrían extrapolarse al análisis del discurso para pensarlo y observarlo como un sistema que exhibe propiedades emergentes que lo integran a un contexto ecológico que puede ser estudiado con herramientas similares a las de las ciencias naturales.

En cuanto a mi proyecto de investigación particular, el análisis de corpus puede resultar útil para encontrar aspectos narrativos comunes en los relatos que se observan en los textos académicos acerca de la historia de las humanidades digitales. Sin embargo, la producción no es tan amplia como para obtener los resultados significativos acerca de los que advierte Thornbury. Como mencioné antes, un estudio exploratorio por el estilo podría servir si se complementa con otras formas de análisis que den cuenta de significados más detallados.

Cuantitativo, cualitativo y mixto — Sergio

1) El principal factor epistemológico que influye en la decisión de asumir análisis cuantitativos o cualitativos es el tipo de objeto o fenómeno que se quiere estudiar. Si las cualidades del fenómeno pueden capturarse a través de datos numéricos y categóricos, y si esos datos y su procesamiento permiten entender con suficiencia el objeto, entonces los análisis cuantitativos son una buena opción. Si, por el contrario, entender el objeto implica distinciones semánticas y pragmáticas más profundas, o si implica fijarse en los detalles específicos, en valores atípicos, en rasgos únicos, entonces los enfoques cualitativos dan cuenta, justamente, de esas cualidades.

En cuanto a lo metodológico, y como lo afirma Rahman (2008), a quien leímos para esta sesión, los análisis cuantitativos son más fáciles de realizar cuando se busca estudiar un objeto a gran escala, pues se pueden capturar los datos de formas más sencillas e incluso automatizadas. Por el contrario, los análisis cualitativos requieren de un trabajo más ponderado, con mayor profundidad descriptiva, con mayor cercanía con el objeto, y por lo tanto son más costosos y lentos. Aunque no es lo ideal, esta consideración metodológica es importante en la práctica real de la investigación, pues es necesario prever con qué infraestructuras, recursos, posibilidades y limitaciones se cuenta.

En cuanto a mi tesis, creo que es conveniente una mezcla de análisis cuantitativos y cualitativos, pues la comunidad de humanidades digitales en Latinoamérica puede estudiarse desde diferentes puntos de vista: tanto desde una lectura en masa de las producciones académicas, de sus redes sociales, de sus comunicaciones informales, como desde una lectura detallada a partir de entrevistas, observaciones en campo, lectura cercana de sus discursos, etc. La comunidad es relativamente pequeña (no cuenta con millones de participantes), así que un análisis de las prácticas de los actores más centrales puede dar buena cuenta de las prácticas en general.

2) El fundamento epistemológico de los análisis mixtos, en mi opinión, está en que todos los fenómenos dignos de investigación pueden ser leídos tanto con la lupa dialógica de los análisis cualitativos como con la regla operacional de los análisis cuantitativos. Por lo tanto, una combinación de los dos tipos de análisis (ya sea dándoles igual jerarquía u organización temporal, o privilegiando uno sobre el otro) es beneficiosa para captar un espectro más amplio de las lecturas posibles en la investigación. Adicionalmente, y creo que esto es una consecuencia de este tipo de análisis, este punto de vista amplio hace que los investigadores salgan de sus lugares de confort metodológicos y de sus sesgos atrincherados, y que deban confrontar sus apreciaciones de múltiples maneras. Esta confrontación, más que un problema, obliga a salir de los preconceptos y, así, es un incentivo para ver los problemas de forma ingeniosa.

3) Creo que la principal ventaja conceptual de los estudios mixtos es que permiten triangular las hipótesis desde distintos puntos de vista y desde distintos niveles de granularidad y detalle en la descripción. Adicionalmente, y como vimos, por ejemplo, en el trabajo de González-Romero, Gutiérrez-Romero y Molina Ríos (2021), permite establecer vasos comunicantes entre los métodos cualitativos y cuantitativos. Dicho de otra forma, permite transducir o traducir un tipo de dato en otro para usar diferentes estrategias de análisis con ellos: desde descripciones cualitativas del discurso, como las lecturas hechas desde bases psicológicas, de la semántica cognitiva o de las ciencias sociales, hasta operaciones estadísticas que permiten demostrar la significatividad (o no) de los resultados, o las distribuciones y tendencias de los mismos. Esta transducción es un ejercicio difícil pero valioso, como lo demuestra el artículo que mencioné, pues implica crear instrumentos especiales que hagan que la investigación sea realmente mixta y no solamente paralela, y que mantengan la consistencia y la justicia con los datos originales. Adicionalmente, y eso también lo muestra el artículo, la investigación mixta promueve el trabajo entre investigadores de diferentes disciplinas.