Por:
Luis Felipe Navarrete
Maria Mercedes Corral Strassmann
Agosto 24 de 2020
El autor en este artículo presenta un esquema que reflexiona sobre un enfoque informático de la textometría relacionado con enfoques de la semántica interpretativa.
Define inicialmente la textometría o estadística textual que es la forma de la lexicometría (Lebart et al.,2000), este análisis estadístico ha simplificado el análisis de datos el cual se ha podido apoyar en herramientas tecnológicas para su desarrollo. La propuesta de análisis de los corpus ya digitalizados se plantea utilizando procedimientos de algún orden definido y cálculos estadísticos, La lexicometría como herramienta también ayuda a identificar unidades y patrones temáticos en los corpus, se generan procedimientos cuantitativos, pero de interpretación cualitativa.
La lingüística del corpus y la textometría, que se fundamentan en los corpus digitales se centran en diferentes conceptos, la lingüística busca la descripción de la lengua mientras la textometría se centra en el análisis de textos y sus datos. Los análisis estadísticos se fundamentan en algunos cálculos que finalmente llevan a las interpretaciones.
La semántica interpretariva, es teoría linguistica la cual fue desarrollada por François Rastier, (Rastier, 1987; Rastier, 2001), quien sugiere algunas herramientas computacionales que ayudan a la interpretación de los textos.
Entrando en el análisis de la textometría, el corpus se divide en unidades de acuerdo con el tamaño de las palabras, aquí se genera una indexación que permite realizar los procedimientos de búsqueda de una manera más eficiente, el corpus se estructura como un texto; de acuerdo con los programas que se estén utilizando se pueden definir las búsquedas necesarias que ayudan a establecer concurrencias y patrones. La textometría permite el análisis y contextualización, global y local y también algún ordenamiento del mismo texto, para el análisis estadístico más eficiente se busca eliminar tanto las palabras poco frecuentes, como las palabras muy frecuentas dentro del corpus
¿Se puede relacionar un texto con “un saco de palabras”? los textos realmente no se encuentran tan desestructurados como supone esta metáfora, lo cual implicaría contar con cadenas de caracteres extraídas de un texto o de un corpus. Brunet (2006b), plantea la descripción del corpus, no solamente basándose en las palabras sino también usando elementos morfosintácticos, palabras descompuestas, sucesiones de vocales y consonantes.
Los cálculos que se realizan son cuantitativos, y la textometría utiliza los modelos estadísticos, sin embargo, integra también una actividad cualitativa, el procedimiento logra buenos resultados cuando se define claramente el problema a resolver y se construye un corpus adecuado para la búsqueda. De acuerdo con Rastier, (2001: VII.3.5), el análisis cualitativo le proporciona más significado a los resultados cuantitativos.
El autor nos presenta, algunas experiencias que muestran los descubrimientos iniciales de la textometría realizados por la semántica interpretativa. Los textos pueden presentar palabras claves que permiten generar interpretación, la coocurrencia como otro efecto dentro de los textos, y el cálculo de estas coocurrencias como un resultado textométrico.
En la semántica interpretativa se han utilizado algunos programas informáticos para el manejo de las coocurrencias, el más conocido y utilizado es el Hyperbase de Brunet (2006a), que nos genera los cálculos de las coocurrencias. Otra herramienta es el INaLF de Maucourt, en colaboración con Bourion, este programa produce listas de los coocurrentes estadísticamente y también la frecuencia de ocurrencia; como resultado presenta las líneas del contexto, pero en función de la coocurrencia.
Bourion propone como una siguiente funcionalidad el contar con resultados más seleccionados además de las coocurrencias donde se podría ver la colaboración entre la semántica interpretativa y la textometría, tratando de llegar a la localización de un pasaje completo dentro del texto.
Las experiencias planteadas por el autor permiten ver la textometría como una forma de enfocar la investigación sobre un corpus en un esquema de semántica interpretativa, para confirmar este planteamiento hay que contar con otros elementos entre la semántica interpretativa y el método textométrico.
La aplicación de la textometria hace posible una revisión de elementos fundamentales incorporados a los marcos de la semántica interpretativa.
Otro de los ejes constitutivos de este enfoque refiere a la caracterización de textos y géneros textuales, que permite la distinción a partir de la determinación de categorías temáticas, que permite una articulación de elementos isotópicos y configuración de ramas comunes que permiten a su vez, las relaciones de sub-corpus, establecidos a partid de elementos lexicales, morfológicos y semióticos.
Algo que puntualiza Pincemin es la determinación de lo global sobre lo local, lo cual evita restringir e análisis a la mera observación de frases o elementos perdiendo su articulación, orientando a la investigación a los tejidos estructurales del texto; es clave no perder de vista que el análisis texto métrico exige la vuelta constante de la mirada sobre el texto y no la reducción de sus partes. Con esta claridad, es posible acentuar la mirada sobre elementos globales de clasificación como los géneros textuales, que se vincularía a elementos de entrada como las descripciones morfosintácticas y se amplía en revisiones infra textuales y supra textuales. Para este procedimiento, se sugiere integrar tres componentes: el dialéctico, el dialógico y el táctico.
Retomando los elementos de la semántica interpretativa, se sitúa como central el interés en-por el sentido, que pueden empezar a establecerse a partir de componentes estructurales del sistema de clasificación de la lengua como la fonética, la gramática, la morfología, la sintaxis, etc., pasando a explorar elementos como el ritmo, la prosodia, las tipografías etc., haciendo vinculantes los elementos de la lingüística y la semántica. Estos procedimientos requieren no perder de vista el lugar central de los textos en todas las etapas del análisis.
En este sentido, la unidad de análisis prioritaria es el texto, volcando el estudio a todas sus dimensiones, lo cual en términos potenciales permite la intervención sobre elementos micro (como las frases) pero generando conexiones que nos reubiquen en el aspecto macro. Ese enfoque permitirá descubrir sentidos que en análisis puramente lingüísticos o lexicales quedarían restringidos. A su vez, el uso de herramientas como Hyperbase, permite dirigirnos a la hipertextualidad, desplazamiento que brinda orientaciones sobre las ocurrencias del contexto textual. Así, la contextualización se ubica como un principio de análisis al momento de revisar los corpus establecidos; el establecimiento de los lazos a partir de relaciones lexicales, sintácticos etc., como las similitudes, permite el trazado de una cartografía de tipologías. El autor especifica que desde la modelización pueden caracterizarse contextos locales –a través de las coocurrencias y concordancias- , así como globales, desde especificidades del análisis factorial de correspondencias. Para ello se proponen los principios de:
• Contextualidad: vinculo de pasajes o signos de un mismo texto, donde los elementos de significación se evidencian desde su reciprocidad.
• Intertextualidad: representa analogía entre dos pasajes diferentes
• Architextualidad: este principio establece que el texto situado en el corpus “recibe determinaciones semánticas y modifica potencialmente el sentido de cada uno de los textos que lo componen. De esta manera, todos los textos incluidos en el corpus generan una lógica de sentido en las frecuencias globales.
El abordaje del contexto amplia las dimensiones del significado y del contenido mismo y permite, como los sugiere Rastier (2001), el matizaje de “formas que destacan sobre un fondo”. Esto permite la conexión con el propósito de la construcción del sentido que se genera en función del texto, que se ve claramente incidida por la selección del corpus, pasando a su codificación y el establecimiento de las correspondencias de datos desde los cuales se definen las unidades, tipologías y otras categorizaciones que permiten definir el cálculo apropiado que considera elementos cuantitativos, pero incorpora en su base fundamental aspectos interpretativos (que se despliegan es experiencias procedimentales como la hermenéutica de pasajes paralelos que recurre a la comprensión de diversos pasajes en torno a un mismo tema).
Picemin señala que la acción interpretativa puede definirse como una semántica diferencial (como referencia de oposición a la semántica inferencial o referencial) acentuando su materialidad en la realidad lingüística, plateando así los contornos en los cuales se sitúa la tarea textométrica, que enfoca la tipificación de unidades, estableciendo frecuencias, separando temáticamente y desde tipologías concretas, que permite concretar lo que se identifica y lo que se opone, las relaciones y los contrastes. En esta tarea, si bien los elementos estadísticos resultan cruciales, termina por acentual el valor preponderante de lo cualitativo en la caracterización de estos sistemas de sentido; ordenando criterios desde lo cuantitativo, el análisis se orienta hacia acciones cualitativas que permiten establecer los matizajes, los puntos medios, las correspondencias, las unidades que orientan la interpretación siempre desde una vuelta al texto.
Reconocer esta estructura, permite también referirnos a la unificación de la semántica interpretativa, por los planos que articula desde las dinámicas interpretativas y diferenciales, integrando aspectos de análisis que han pretendido abordarse de manera separada o independiente (como el análisis pragmático o sintáctico), permitiendo de esta manera que la textometria integre diversas dimensiones, como el estudio de palabras, que se extienda, por ejemplo a las lexicalizaciones y de allí a las coocurrencias, integrando a su vez elementos de la forma interior y de la forma exterior que vincula los planos centrales de las formas semánticas y las formas expresivas.
Estas consideraciones son tenidas en cuenta en los diseños y posibilidades de las herramientas informáticas y tecnológicas que posibilitan la medición textométrica y desde allí, la modelización de los textos y los corpus estructurados, en pro de avanzar el análisis sobre los múltiples niveles lingüísticos, que se sigan proyectando sobre las unificaciones y grados de diferencialidad (explicitados en las regularidades, las oposiciones, las repeticiones, las singularidades, etc.), lo cual ha abierto el campo de la textometria buscando enfatizar posibles funcionalidades que enriquezcan el análisis .
Se consolida así un proceso metodológico que permite el establecimiento de correlaciones y elementos nucleares (o en palabras de Pincemin: moléculas sémicas) claves en la conformación de los temas que consolidan la estructura del texto. De esta manera se teje una red que reconoce el valor de elementos lingüístico y se despliega hacia la temática, la dialéctica, la dialógica y la táctica (componentes ya señalados como claves de la descripción textual). Desde la lógica de interfaces, la propuesta apunta a una integración que pensaría en las funcionalidades, el examen y los encadenamientos, en un trabajo multinivel.
De esta manera, los aportes y consideraciones establecidos desde la semántica interpretativa, permite ampliar los horizontes y la pertinencia del trabajo texto métrico, como enfoque o diseño analítico que si bien está aún en construcción, brinda herramientas y procedimientos que permiten la detección de connivencias que hacen cruciales al texto, las dimensiones contextuales –o contextualización-la intertextualidad y el establecimiento de corpus que en el plano de la interpretación, permiten ver las dinámicas de producción de sentido (en el eje del análisis semántico). Las taxonomías y criterios explorados abogan también por el desarrollo de herramientas informáticas, ampliando los márgenes de reflexión sobre la labor semántica e interpretativa, desde dimensiones hermenéuticas, que, desde operaciones cualitativas relevantes, pueden arrojar aspectos inéditos sobre las bases materiales del texto.
Referencias
BRUNET, Etienne (2006a). Hyperbase, logiciel documentaire et statistique pour la création et l’exploitation de bases hypertextuelles. Manuel de référence. Version 6.0 (mai 2006). Laboratoire Bases, Corpus et Langage, UFR Lettres, Université de Nice.
LEBART, Ludovic; Salem, André et Bécue, Mónica (2000). Análisis estadístico de textos, Lleida: Editorial Milenio.
Pincemin, B. (2010). Semántica interpretativa y textometría. Tópicos del Seminario, 23, 15-55
RASTIER, François (1987). Sémantique interprétative, Presses Universitaires de France. Traducción de Eduardo Molina y Vedia: Semántica interpretativa, México: Siglo XXI, 2005.
RASTIER, François (2001). Arts et sciences du texte, Presses Universitaires de France. Traducción de Enrique Ballón Aguirre: Artes y ciencias del texto [en prensa].