Estudio de Caso IA – Imágenes diagnósticas para COVID 19

INDIRA – Plataforma basada en IA para proceso de imágenes diagnósticas

¿Qué se sabe sobre el estudio de caso?

Índigo Technologies es una compañía colombiana de desarrollo de software, que utilizan IA para procesar imágenes radiológicas para detección de varias enfermedades. La organización busca utilizar los sistemas de IA y los datos para asumir tareas repetitivas y permitir a los médicos y los pacientes poder tener un mejor trato humano, de acuerdo con el CEO.

Esta entidad desarrolló INDIRA la plataforma que ayuda a diagnósticos médicos basados en imágenes; la plataforma actualmente ayuda a diagnosticar 25 patologías entre ellas cáncer de pulmón, enfermedades cardiovasculares, trastornos en vías respiratorias. Cuando aparece el virus del COVID 19, Índigo desarrolla dentro de la plataforma el reconocimiento de patrones de este virus en el tipo de neumonía que éste produce. Como partner tecnológico Índigo trabaja con Microsoft.

Fuente:   https://indira.ai/wp-content/uploads/2019/10/indira_nodulos.gif

¿Qué papel juega en los imaginarios contemporáneos? ¿En fantasías (o pesadillas)? ¿Qué tipo de narrativas nacionales lo utilizan? ¿Cómo aparece en el entretenimiento? ¿Qué otras grandes narrativas, historias y asociaciones fuertes lo involucran?

En la actualidad el papel de este nuevo desarrollo constituye una herramienta complementaria, a la prueba PCR, desarrollada por Índigo con base en algoritmos de IA que permite en menor tiempo la entrega de resultados, con equipos de rayos x y tomógrafos disponibles en el país. Esta herramienta presenta una solución alcanzable y útil para el cuidado de la salud, que permite diagnósticos tempranos de enfermedades complejas, respiratorias y de corazón que adicionalmente ayuda al diagnóstico del COVID 19.

Teniendo otros ejemplos donde INDIRA es exitoso en su diagnóstico se cuentan con evidencias que este programa tiene una confiabilidad de 99.3% en diagnóstico de cáncer de pulmón. Con base en la experiencia de análisis de imágenes y teniendo en cuenta la afección pulmonar que genera el Coronavirus, Índigo Technologies desarrolla la solución de IA para imágenes de pulmón y la presencia de neumonías derivadas del COVID 19, para poder determinar si la persona ha sido contagiada. Si bien de acuerdo con la Organización Mundial de la Salud, la prueba aprobada es la PCR, la misma implica grandes retos en países donde el ingreso no es alto ni tampoco las capacidades instaladas son suficientes así como la logística de transporte de pruebas se convierte en desafíos adicionales.

Es realmente un avance importante en términos de prevención de enfermedades, utilizando elementos y equipos que ya se encuentran disponibles en los establecimientos médicos y que pueden ser utilizados en varias regiones del país.

Cuáles son las historias “oficiales” de su objeto? ¿Qué se sabe generalmente sobre la invención? ¿Existen versiones diferentes y competitivas de sus historias? ¿Cómo ha viajado históricamente? ¿Qué otras grandes narrativas hacen referencia a él y cómo importan esas referencias?

Índigo Technologies, tiene como objetivo de empresa:  Ayudar y acompañar a clínicas y hospitales a ser altamente eficientes, para salvar y mejorar la vida de las personas a través de tecnologías innovadoras e inteligentes, prestando servicios a nivel de Latinoamérica.

Su propósito es brindar a las instituciones de salud soluciones tecnológicas e inteligentes que permitan cubrir la prestación de servicios, entregar información en tiempo real y ayudar a tomar de decisiones oportunas y acertadas con diagnósticos cada vez más precisos.

Dada la morfología de la neumonía que genera el COVID 19, el algoritmo desarrollado reconoce los patrones de afección ocasionados por el virus. Después de las pruebas realizadas se logra una certeza de 93.7% de sensibilidad y un índice de especificidad de 98.1%, lo que significa la evidencia de la ausencia del virus. De cada 100 casos con neumonías de Coronavirus, el algoritmo está en condición de identificar con exactitud a 98 de ellos.

Fuente: https://blogs.microsoft.com/latino/2020/04/16

Para el funcionamiento de la plataforma únicamente se requiere una conexión a internet lo cual es importante para las instituciones que no cuentas con equipos de diagnóstico. El servicio se presta a través de la nube de Microsoft, y se obtienen resultados en un tiempo no mayor a una hora, buscan como empresa reducir tiempos de entrega de resultados, mayor precisión de diagnósticos y un incremento de capacidades diagnósticas permanente con las tecnologías utilizadas de IA.

Como reflexión final esta es una iniciativa de IA, enfocada netamente en temas de salud y prevención de enfermedades, ya utilizada desde hace décadas pero que con algoritmos adicionales de IA permite ayudar en los diagnósticos de COVID 19.

En este caso de IA claramente se ve el objetivo de la organización de ayudar a las personas generando diagnósticos tempranos de enfermedades complejas, y donde la tecnología se ha convertido en un elemento estratégico para el cumplimiento del objetivo de organización, es un claro ejemplo del uso de la tecnología como un medio para resolver una situación, más que utilizar la tecnología como objetivo mismo.

Las empresas hoy buscan una transformación de sus objetivos alrededor de las tecnologías, no significa cambiar los objetivos sino utilizar las tecnologías como medios estratégicos para lograr un mejor servicio a la sociedad.

No es la tecnología lo importante sino las personas y su salud lo que tiene valor, de acuerdo con lo que Índigo Technologies busca con sus servicios.

Considero un logro importante a nivel país en el desarrollo de IA, con el fin de optimizar los recursos que se tienen y poder entregar algo más a la sociedad, aunque existen en otros países desarrollos similares con estos objetivos.

Links:

Ética en la investigación cualitativa – ACastiblanco MMCorral

Por Amanda Castiblanco y Maria Mercedes Corral

La presente reseña tiene como fin encontrar los puntos claves y críticos de los artículos propuestos en torno a la ética de la investigación. Estos abordan temas centrales de significado de la investigación cualitativa y desde allí desprenden el enlace directo con los métodos computacionales, las tecnologías y el internet.

Finalmente, se propone una aproximación hacia las conclusiones que emergen del enlace entre investigación cualitativa y ética de la investigación a partir de los artículos.

1.            Aspectos éticos de la investigación cualitativa

La investigación cualitativa, es por predilección un campo metodológico utilizado para descubrir, desarrollar, investigar y profundizar problemas y contextos sociales, bajo una mirada subjetiva. De antemano, en discusión epistemológica, se registra la fuerte disputa por la inclusión y reconocimiento como ciencia mantenida durante siglos, la cual, se ciñe a legados positivistas que plasman el ideal de ciencia desde su capacidad de comprobación.

El valor de las ciencias del espíritu cuyo foco se centra en las humanidades, enfatizando el enlace con los contextos socioculturales, es percibido desde la observación de problemas que van más allá de la experimentación cerrada, específica y directa, cuyos resultados no se pueden plantear en una hipótesis que reclame sesgos en el proceso finalizado de cualquier investigación. Al partir de interpretaciones subjetivas, se corresponde con interpretaciones y argumentaciones de los actores participantes del proceso.

Lo anterior permite discutir la investigación cualitativa como un campo de ciencia que puede ser observada éticamente; desde allí se preocupa por las realidades contextuales, sociales, tanto humanas como no humanas, que asienten su mirada crítica de validación del otro y de lo otro. En este sentido, se debe reconocer en las formas diversas de entender el mundo, la sociedad, la naturaleza y sus transformaciones bajo otras miradas y perspectivas.

Con base en estudios cualitativos, la ética de investigación permite cuestionar la parcialidad científica, que, según González (2002) plantea resultados enlazados holísticamente, con los actores y el objeto de la investigación, descubriendo históricamente que “la objetividad de la ciencia fue vista de otra manera desde que comprendimos la carga teórica de la observación, la infradeterminación y las limitaciones de los estudios inductivos” (González, 2002, p. 86) lo que permite cuestionar en práctica e interacción dicha objetividad.

Lo anterior entabla relaciones de apertura hacia otros escenarios, que según las herramientas computacionales pueden enfocar los resultados de una manera un poco más objetiva. El enlace de la investigación cualitativa con las tecnologías debe cumplir con las siguientes características como cualquier estudio etnográfico:

Tradiciones: argumentadas teóricamente

Aceptación social: del conocimiento producido

Correspondencia de elementos objetivos – subjetivos

Estos elementos permiten mantener el ideal de la ciencia sustentado en que, según González, “tanto el conocimiento, como las metodologías creadas y la experiencia derivada del ejercicio de la ciencia son productos culturales” (González, 2002, p. 89) que pueden construir procesos de investigación con desarrollo tecnológico permitiendo mejorar la calidad de vida desde las mismas comunidades.

El vínculo entre ciencia y tecnología optimiza la construcción de pensamiento crítico que repiensa las formas de hacer ciencia acercando la discusión a fenómenos sociales. Lo anterior se apoya en la ética de la investigación cualitativa que, según González (2002) se fundamenta en que:

  1. El conocimiento es una producción constructiva e interpretativa
  2. El proceso de producción del conocimiento en la psicología y las ciencias sociales es interactivo
  3. La significación de la singularidad tiene un nivel legítimo en la población del conocimiento

Pero ¿qué características surgen en la ética de la investigación cualitativa? Como lo menciona el autor, son las mismas que en la investigación cuantitativa. Sin embargo, se suman elementos que constituyen al sujeto o investigado bajo elementos de respeto y veracidad. Por tanto, se basa en reconocer la subjetividad del individuo que lo comprende como ser único, el cual, acusa un papel fundamental en el diseño, implementación, proceso y resultados de la investigación.

Lo anterior plantea la necesidad de reconocer las diversidades éticas de la investigación, así como conocimiento científico, para poder ajustarlas al proceso real, generando diálogo constante que mantenga en buen estado el proceso y finalmente observar al detalle elementos éticos evaluables que según González se describen desde:

  1. Validez científica: que mantenga la sincronía entre teoría, métodos, herramientas que legitiman una información
  2. Valor social o científico: que proponga o mantenga beneficios, bien sea individuales y/o colectivos
  3. Selección equitativa de los sujetos: mantiene características científicas que argumentan el estudio y se pueden beneficiar en doble vía
  4. Proporción favorable de riesgo – beneficios: Minimizar el riesgo es igual que maximizar beneficios para los investigados
  5. Condiciones de dialogo auténtico: natural, que defienda posiciones ético-político-sociales en beneficio de un colectivo que reconoce las voces afectadas dialógicamente
  6. Evaluación independiente: realizar evaluación externa de investigadores, pero manteniendo el reconocimiento de autoridades investigativas
  7. Consentimiento informado: Solicita participación y por supuesto consentimiento de los procesos de investigación
  8. Respeto a los sujetos inscritos: que contemple los diversos escenarios en donde se pueda irrespetar la participación, el consentimiento, el cambio en la dirección de la investigación, la devolución y muestra de resultados y todo aquello que emerja del proceso.

2.            Ética en la investigación cualitativa sobre comunidades de internet

¿Qué es internet para la ética en la investigación cualitativa?

Considerando que internet se puede ver como el mayor repositorio de material que hoy se tiene, y donde todas las personas entregan allí sus opiniones, gustos, comentarios, por referirnos a algunos elementos. El análisis cualitativo de todos estos datos e información puede servir para entender y conocer preocupaciones, necesidades, gustos de personas y también para temas más relevantes como la salud. Sin embargo, la investigación plantea otros aspectos de ética, frente a las personas que serán los sujetos de investigación, y de quienes se debe solicitar su consentimiento para participar en una investigación, como se menciona en el artículo de Eysenbach, et al, (2001), estas fronteras entre lo público y lo privado se difuminan en internet. Los consentimientos informados son necesarios para estos procesos y adicionalmente dado que en internet se conforman comunidades de personas a través de los websites, listas, grupos ente otros, los cuales generan comunicación entre ellos y es necesario en el momento de requerir participación contar con su aprobación. Existen varios ejemplos, entre estos los relacionados con información de salud.

La investigación cualitativa cuenta con información de publicaciones en internet, donde se tienen las voces de las personas, como lo menciona Eysenbach, et al, (2001), en esta investigación existen tres tipos de métodos con base en Internet, el primero en un análisis pasivo, como se tiene en estudios que se encuentran publicados o grupos de interacción sin contar con la interacción propia de los investigadores, otro tipo de investigación tiene en cuenta participación más activa y comunicativa de los investigadores quienes revisan la información recolectada y buscan la precisión de las respuestas. El tercer método, ya cuenta con la identificación de los investigadores y éstos recolectan la información a través de entrevistas, encuestas y así mismo a través de internet buscan quienes participen de su investigación. Es importante tener presente que las comunidades de internet pueden eventualmente ver los investigadores como intrusos en sus temas de comunidad más allá de ver la investigación misma, este tema se empieza a manejar en internet con los elementos relacionados con la privacidad y confidencialidad de los datos.

Como principios éticos de la investigación científica se tiene la privacidad, confidencialidad y el consentimiento previamente informado Eysenbach, et al, (2001), para entender si en internet se requiere el consentimiento informado, se debe primero conocer si las comunicaciones dentro de la comunidad son públicas o privadas, puesto que si la información se está tomando en un espacio privado se requiere que las personas autoricen el utilizar su información. En internet es importante tener en cuenta las medidas sobre la privacidad, esquemas de registro y autorización, tamaño de los grupos y otro elemento son las normas que se definan en el grupo y el tipo de preguntas que se hacen.

3.            La ética en la investigación cualitativa: una visión del mundo de los participantes y los investigadores desde un punto de vista crítico.

Es de entender que la investigación en internet se da gracias a que los investigadores cuentan con una serie de participantes que están allí, sin embargo, lo más importante es tener claro cómo se llega a ese grupo de personas /participantes, y aquí entra como aspecto clave los diversos conflictos éticos que se pueden presentar. (Orb et al., 2001).

Así mismo es importante tener en cuenta si el investigador tiene algún conflicto de interés con el grupo de participantes, por alguna relación que exista con este grupo de personas, en cuyo caso también hay que tener presente las normas éticas. Otros casos se dan por ejemplo cuando se quieren compartir fotos, o estas hacen parte de la investigación.

Los métodos de invitar a la participación deben ser tan claros que los participantes no se sientan coaccionados y que el tratamiento a las personas no puede depender de si se participa o no en la investigación. Un punto que resalta es también el grupo social al que se quiere llegar, entendiendo que pueden ser grupos o comunidades vulnerables, que no tienen elementos de claridad sobre el tema, no sobre el uso de las tecnologías inmersas en la investigación. El Código de Nuremberg de 1947 indica que el consentimiento voluntario del sujeto humano es absolutamente necesario (Ghooi, 2011), lo cual también sugiere que no solo se está protegiendo a la persona sino también, existe una responsabilidad social desde la investigación, (Schwandt, 2007). Por lo tanto el grupo social y sus condiciones hacen parte de esta responsabilidad.

De la misma manera es importante para los investigadores que puedan tener algún tipo de protección contra daños personales o en su núcleo social; y así mismo considerar las estrategias que se pueden adoptar para evitar los riesgos y dificultades que se presenten durante la investigación (Dickson-Swift et al., 2008). Existen las instancias de las Juntas para la Ética en la investigación, quienes tienen responsabilidad de garantizar que los investigadores consideren el bienestar de sus participantes y minimizar los daños por riesgos que emerjan durante el proceso.

Al realizar investigación cualitativa se debe tener en cuenta el concepto de conciencia crítica de la ética, concepto que va más allá de procedimientos y principios y llega hasta la toma de decisión ética. (Dilmi, 2012). ¿Cómo se aprende esta conciencia crítica para la investigación ética? Este es un proceso que involucra, diálogo, temas escritos, visuales, y un grupo de personas de diferentes culturas, educación.  (Denzin & Giardina, 2007; Keith-Spiegel, et al, 2002;  Kumagai & Lypson, 2009), sin embargo, no es un concepto que debe inmovilizar la investigación ya quienes tomen decisiones, debe proveer más bien elementos para lograr mejores preguntas y reflexiones sobre lo que se está encontrando en la investigación. El aprendizaje de la conciencia crítica requiere recursos y necesariamente una flexibilidad ante la escucha, el diálogo, el cuestionamiento. Se debe invertir en aprender de esta mentalidad crítica y reflexiva lo cual ayudará a construir esos investigadores con conciencia crítica. (Dilmi, 2012).

4.            Aproximaciones de la ética en investigación cualitativa

La investigación cualitativa es un medio para explorar y capturar las experiencias subjetivas de las personas, sin embargo, puede llevar a desafíos éticos para las dos partes, los investigadores y los participantes.

Uno de los desafíos que debe ser observado con detenimiento es el reconocimiento de los actores participantes del proceso en relaciones no jerárquicas, lo cual permite desarrollar la investigación de forma natural. De esta forma, se puede responder a la problemática atendida, en un escenario tradicional, propio lejos de transformaciones acomodadas. Esto a su vez, asegura una interacción transparente que puede encontrar su foco en aspectos culturales, sociales y cotidianos, con alto grado de rigor social y por supuesto, metodológico.

Por otro lado, y quizás el más importante que se debe revisar constantemente, es la dirección de los resultados. Si bien, la investigación cualitativa es planteada con el fin de descubrir realidades sociales, es a esas mismas realidades a las que se debe enfocar el estudio. Es decir, centrar la investigación en resultados, que más que responder al escenario académico, en lo mayoría de estudios, sea una respuesta y/o un aporte comunitario.

A su vez, cada escenario debe mantener el consentimiento informado del proceso y la devolución, teniendo en cuenta que esta última no es una mera muestra de resultados sin sentido, o que puedan ser explotados fuera de la comunidad. Al contrario, deben ser consensuados y en lo posible, que puedan ser usados por ellos mismos en escenarios de extensión de la investigación y/o como una base de muestra comunitaria.

Para el caso de las Investigaciones cualitativas utilizando internet, es importante poder separar los escenarios públicos y los privados, así como definir quienes pueden ser esos participantes de cada uno de los espacios. Lo anterior apoya el protocolo construido en torno a los procesos de recolección de datos anidado al contexto.

Finalmente se debe reflexionar que estos trabajos de orden social exigen responsabilidad social y a la vez la conciencia crítica puede proyectar la realidad, lo cual puede generar valor y beneficio a la sociedad, en la medida en que se puedan conocer determinados resultados. Lo anterior requiere entender que la relación mencionada, compaginada con el investigador y los participantes genera experiencias totalmente subjetivas, donde las voces de personas, sujetos, objetos, tradiciones y cotidianidades, recrea y dinamiza los espacios socioculturales y políticos. (Dilmi, 2012) donde se actúa con un fin decidido. Desde allí, también se pueden entrever los riesgos de la investigación que se filtran desde el comportamiento ético de la investigación y la congruencia y compresión de actores, bien sea participantes, investigadores, elementos, entre otros.

Bibliografía

Dilmi, Aluwihare-Samaranayake. (2012). Ethics in Qualitative Research: A View of the Participants’ and Researchers’ World from a Critical Standpoint. International Journal of Qualitative Methods. 11. 64-81. https://www.researchgate.net/publication/233708898_Ethics_in_Qualitative_Research_A_View_of_the_Participants’_and_Researchers’_World_from_a_Critical_Standpoint

Dickson-Swift, V., James, E.L., Kippen, S., & Liamputtong, P. (2008). Risk to researchers in qualitative research on sensitive topics: Issues and strategies. Qualitative Health Research, 18, 133-144.

Eysenbach, Gunther & Till, James E.. (2001). Ethical issues in qualitative research on Internet communities. BMJ (Clinical research ed.). 323. 1103-5. https://www.researchgate.net/publication/11652275_Ethical_issues_in_qualitative_research_on_Internet_communities

González Ávila, M. (2002). Aspectos éticos de la investigación cualitativa. Revista Iberoamericana De Educación, 29, 85-103. https://doi.org/10.35362/rie290952

Ghooi, R.B. (2011). The Nuremberg Code-A critique. Perspectives in Clinical Research, 2(2), April-June, 72-76.

Kumagai, A.K., & Lipson, M.L. (2009). Beyond cultural competence: Critical consciousness, social justice, and multicultural education. Academic Medicine, 84(6), 782-787.

Orb, A., Eisenhauer, L., & Wynaden, D. (2001). Ethics in qualitative research. Journal of Nursing Scholarship, 33(1), 93-96.

Schwandt, T.A. (2007). The pressing need for ethical education: A commentary on the growing IRB controversy. In In N.K. Denzin and M.D. Giardina (Eds.), Decolonizing and politics of knowledge: Ethical futures in qualitative research. Walnut Creek, California: Left Coast Press.

Teoría Fundamentada y Codificación – Reseña MMCORRAL

Maria Mercedes Corral Strassmann

Septiembre 27 de 2020

Introducción

Diferentes métodos de la teoría fundamentada pueden complementar otros enfoques de análisis cualitativo para la investigación. Los capítulos para presentar muestran los principios de la teoría fundamentada de Glaser & Strauss (1967), su sentido en el análisis cualitativo y su definición. Adicionalmente se presenta a través de varios ejemplos y situaciones la codificación en la teoría fundamentada mostrando a través de esta situación esquemas de codificación y su funcionalidad y beneficios. Esta reseña busca mostrar algunos elementos importantes de la teoría fundamentada y la formas de realizar la codificación.  Esta práctica requiere “hacer una alto y generar preguntas analíticas de los datos que hemos conseguido”. (Chazmar, 2006, p57). La codificación en la teoría fundamentada está definida en fases y en esta reseña se presentarán algunos elementos de estas fases.

Dentro del proceso de investigación, los métodos de la teoría fundamentada nos permiten iniciar, generar proceso y llegar al final con los resultados, esta teoría se fundamenta en la analítica de los datos, y nos permiten explorar y generar análisis en etapas tempranas de la investigación con base en los datos recolectados y de esta manera construir la teoría para la investigación. El proceso desde la recolección, estudio, y escritura de memos o notas sobre los mismos, permite llegar a las categorías de análisis.

Esta teoría fundamentada nace con los sociólogos Barney G. Glaser y Anselm L. Strauss’s (1965, 1967), quienes exploran los análisis basados en ideas de conversaciones y notas de observación de situaciones en casos de enfermedad, estos datos permitían posteriormente estudiar otros frentes, la idea de la teoría de acuerdo con Glaser y Strauss es desarrollar teorías de investigaciones basadas en datos en vez de comprobar hipótesis de teorías existentes, los autores proponen que los mismos análisis de los datos con su propia lógica lleguen a determinar la teoría. Para los autores de esta teoría fundamentada, los siguientes componentes deben estar presentes: la recolección, y análisis de los datos la construcción de los códigos y categorías a partir de los mismos datos, y establecer comparaciones dentro del análisis. La escritura de los memos ayuda en el proceso de categorización y la definición de relaciones entre las mismas categorías. Este método complementa otras aproximaciones al análisis cualitativo sin estar en oposición a estos otros métodos, algunos autores no comparten este esquema de realizar análisis cualitativo, la teoría fundamentada nos da elementos adicionales sobre los datos puesto que no guía en la forma de proceder en la investigación y análisis. Sin embargo, esta teoría es un desafío a los métodos cuantitativos,

El proceso de la teoría fundamentada lo presenta (Chazmar, 2006, p11) en un diagrama de proceso que contempla las diferentes actividades que conlleva el mismo, incluyendo los subprocesos y actividades ya mencionadas.

Revisando entonces los diferentes subprocesos tenemos, la codificación cualitativa como ese proceso de poder determinar cuáles son los datos y el significado de estos y esta codificación nos va a permitir iniciar con interpretaciones cualitativas. La codificación consiste en dividir los datos por segmentos que se puedan categorizar, y se nombran los segmentos por estos códigos. Los códigos muestran cómo se estructuró la data para el proceso analítico, el esquema es segmentar los datos y asignar códigos cualitativamente que permitan la interpretación de los segmentos de texto, en un proceso posterior.

Para la historia que se toma en el capítulo como referencia se determinan unos códigos que reflejan la situación de entendimiento y conocimiento ente las dos personas que son parte de la situación. Los códigos asignados reflejan significados y acciones o eventos propios tomadas dentro de la historia.

La Codificación en la Teoría fundamentada

La codificación en la teoría fundamentada es el inicio del proceso de análisis y es a través del cual se constituyen los elementos básicos. La codificación es la que permite la construcción del análisis y la integración posterior en el proceso de ensamblar los elementos.  La codificación es por lo tanto el enlace entre la consecución de los datos y la teoría de su interpretación y explicación, y se constituye en los elementos que permiten la identificación de los significados en los textos. La codificación en la teoría fundamentada tiene dos fases, la fase inicial de codificación y la fase de codificación focalizada. En la fase inicial se define el esquema a utilizar y se codifica de acuerdo con este, sea por palabra, línea, segmento, y para la segunda fase se prosigue con la analítica. La codificación cualitativa es ese proceso que nos permite dar el sentido a nuestros datos y al análisis que vamos a realizar.

En la codificación cualitativa el elemento fundamental es el lenguaje y se genera una interacción permanente con los datos y lo que ellos puedan significar; esta codificación difiere totalmente de una lógica cuantitativa de análisis.  A nuestra decisión los códigos definidos encajan en las acciones y los eventos reflejados en la data recolectada.

Cuando se inicia el proceso de codificación nos debemos hacer algunas preguntas que nos permitirán avanzar en el análisis, entre estas están, ¿de que tratan los datos? (Glaser, 1978: 57; Glaser y Strauss, 1967) ¿Qué sugieren? ¿Quiénes están en los datos? ¿qué categorías especifican los datos? (Glaser, 1978), en el proceso no se deben desatender los eventos internos a los datos puesto que esto llevaría entonces eventos externos que permitirían otros análisis y eventualmente otras conclusiones.

Entrando más en el detalle de los esquemas de codificación en la fase inicial, se tienen:

Codificación palabra-palabra, este esquema, es más útil cuando se tienen ciertos documentos o datos de internet, esta codificación nos obliga a revisar los significados de las palabras, en cada sitio del documento

Codificación línea-línea, este esquema significa, nombrar cada línea de los datos asignando un código (Glaser, 1978). Esta codificación puede ser útil en datos que provienen de entrevistas, observaciones, documentos, así mismo este proceso puede permitir una siguiente fase y reenfocar las entrevistas por ejemplo, así como nos permite revisar los datos que se deben recolectar posteriormente.

Codificación incidente-incidente, en esta codificación se comparan incidentes, o eventos y permite conceptualizar estos incidentes a lo largo del proceso, volviendo sobre codificados anteriores.

Glaser y Strauss (1967), proponen establecer métodos comparativos, que permitan generar comparaciones y distinciones analíticas, entre los datos recolectados. Adicionalmente se tienen los códigos “In vivo”, los cuales nos pueden representar elementos simbólicos de quienes participan en los datos y los significados.

La siguiente fase de la codificación o codificación focalizada, la cual es más conceptual y selectiva que las mencionadas en la fase inicial, esta fase utiliza los códigos iniciales focalizados en las conceptualizaciones que se requieran. Este esquema de codificación requiere decisiones sobre cuales códigos iniciales tienen más sentido analítico para el proceso siguiente.

Otro tipo de codificación es la codificación axial, propuesta por Strauss y Corbin (1990, 1998; Strauss, 1987), la cual relaciona categorías a subcategorías especificando las dimensiones propias de cada categoría y permite reensamblar el texto que se ha trabajado con las codificaciones anteriores y tenerlo nuevamente para el análisis. Este método de acuerdo con los autores Strauss y Corbin (p.125) responde algunas preguntas del análisis como, que, como, cuándo, done entre otras, estas preguntas permiten a los investigadores describir más detalladamente el estudio que se esté llevando a cabo.

Glaser (1978:72), introduce un nuevo esquema de codificación que es la codificación teorética con la que se definen niveles de codificación más complejos, y los cuales se relacionan entre ellos y pueden ser parte de la teoría; adicionalmente permite establecer relaciones con las categorías definidas en la codificación focalizada. Esta codificación teorética adicionalmente direcciona el análisis.

Es importante tener presente que dentro del proceso de codificación se pueden presentar dificultades debido a varias causas como códigos muy generales, identificación de temas en vez de procesos, errores en el contexto de los códigos entre otros.

Algunas conclusiones, en la teoría fundamentada, el análisis se sustenta en los datos, no en teorías, por lo tanto las fases de decisión de los datos y la recolección son fundamentales para realizar el análisis, y se puede volver sobre los datos y afinarlos. Es flexible y permite decisión del investigador. La codificación es fundamental para el análisis y la interpretación de los datos.

La teoría fundamentada ha sido cuestionada pero es decisión del investigador y del objetivo de la investigación que sea la metodología de análisis adecuada.

Para mi proyecto de métodos de investigación, la teoría fundamentada utilizando Nvivo como herramienta de codificación y análisis puede ser interesante para los datos recolectados, y el objetivo del proyecto. Los datos consisten básicamente, en los proyectos definidos en la estrategia de la PUJ 2016-2021, los cuales se encuentra publicados en video, donde se reflejan los proyectos sociales enfocados en la tercera misión o misión de servicio. El proyecto busca analizar la concepción de la PUJ frente a la tercera misión, y entender si los objetivos de los proyectos y los mensajes que los videos entregan a la comunidad si se enfocan en la tercera misión. Este proyecto hace parte del proyecto de investigación doctoral.

Referencias

Charmaz, K. (2006), Ch.1. ‘Invitation to Grounded Theory’ y Ch.3. ‘Coding in Grounded Theory Practice.’ http://www.sxf.uevora.pt/wp-content/uploads/2013/03/Charmaz_2006.pdf

Glaser, B. G. (1978). Theoretical sensitivity. Mill Valley, CA:The Sociology Press.

Glaser, B. G., & Strauss, A. L. (1965). Awareness of dying. Chicago:Aldine. –. (1967). The discovery of grounded theory. Chrcago:Aldine.

Strauss, A., & Corbin.J. (1990). Basics of qualitative research: Grounded theory procedures

—-. (1998).Basics of qualitative research: Grounded theory procedures and techniques (2nd ed.). echniques. Newbury Park, CA: Sage.

Strauss, A. L. (1987). Qualitative analysis for soda/ sdentists. New York: Cambridge University Press

La semántica interpretativa y la textometría – LFNavarrete – MMCorral

Por:

Luis Felipe Navarrete

Maria Mercedes Corral Strassmann

Agosto 24 de 2020

El autor en este artículo presenta un esquema que reflexiona sobre un enfoque informático de la textometría relacionado con enfoques de la semántica interpretativa.

Define inicialmente la textometría o estadística textual que es la forma de la lexicometría (Lebart et al.,2000), este análisis estadístico ha simplificado el análisis de datos el cual se ha podido apoyar en herramientas tecnológicas para su desarrollo.  La propuesta de análisis de los corpus ya digitalizados se plantea utilizando procedimientos de algún orden definido y cálculos estadísticos, La lexicometría como herramienta también ayuda a identificar unidades y patrones temáticos en los corpus, se generan procedimientos cuantitativos, pero de interpretación cualitativa.

La lingüística del corpus y la textometría, que se fundamentan en los corpus digitales se centran en diferentes conceptos, la lingüística busca la descripción de la lengua mientras la textometría se centra en el análisis de textos y sus datos. Los análisis estadísticos se fundamentan en algunos cálculos que finalmente llevan a las interpretaciones.

La semántica interpretariva, es teoría linguistica la cual fue desarrollada por François Rastier, (Rastier, 1987; Rastier, 2001), quien sugiere algunas herramientas computacionales que ayudan a la interpretación de los textos.

Entrando en el análisis de la textometría, el corpus se divide en unidades de acuerdo con el tamaño de las palabras, aquí se genera una indexación que permite realizar los procedimientos de búsqueda de una manera más eficiente, el corpus se estructura como un texto; de acuerdo con los programas que se estén utilizando se pueden definir las búsquedas necesarias que ayudan a establecer concurrencias y patrones. La textometría permite el análisis y contextualización, global y local y también algún ordenamiento del mismo texto, para el análisis estadístico más eficiente se busca eliminar tanto las palabras poco frecuentes, como las palabras muy frecuentas dentro del corpus

¿Se puede relacionar un texto con “un saco de palabras”? los textos realmente no se encuentran tan desestructurados como supone esta metáfora, lo cual implicaría contar con cadenas de caracteres extraídas de un texto o de un corpus. Brunet (2006b), plantea la descripción del corpus, no solamente basándose en las palabras sino también usando elementos morfosintácticos, palabras descompuestas, sucesiones de vocales y consonantes.

Los cálculos que se realizan son cuantitativos, y la textometría utiliza los modelos estadísticos, sin embargo, integra también una actividad cualitativa, el procedimiento logra buenos resultados cuando se define claramente el problema a resolver y se construye un corpus adecuado para la búsqueda. De acuerdo con Rastier, (2001: VII.3.5), el análisis cualitativo le proporciona más significado a los resultados cuantitativos.

El autor nos presenta, algunas experiencias que muestran los descubrimientos iniciales de la textometría realizados por la semántica interpretativa. Los textos pueden presentar palabras claves que permiten generar interpretación, la coocurrencia como otro efecto dentro de los textos, y el cálculo de estas coocurrencias como un resultado textométrico.

En la semántica interpretativa se han utilizado algunos programas informáticos para el manejo de las coocurrencias, el más conocido y utilizado es el Hyperbase de Brunet (2006a), que nos genera los cálculos de las coocurrencias. Otra herramienta es el INaLF de Maucourt, en colaboración con Bourion, este programa produce listas de los coocurrentes estadísticamente y también la frecuencia de ocurrencia; como resultado presenta las líneas del contexto, pero en función de la coocurrencia.

Bourion propone como una siguiente funcionalidad el contar con resultados más seleccionados además de las coocurrencias donde se podría ver la colaboración entre la semántica interpretativa y la textometría, tratando de llegar a la localización de un pasaje completo dentro del texto.

Las experiencias planteadas por el autor permiten ver la textometría como una forma de enfocar la investigación sobre un corpus en un esquema de semántica interpretativa, para confirmar este planteamiento hay que contar con otros elementos entre la semántica interpretativa y el método textométrico.

La aplicación de la textometria hace posible una revisión de elementos fundamentales incorporados a los marcos de la semántica interpretativa.

Otro de los ejes constitutivos de este enfoque refiere a la caracterización de textos y géneros textuales, que permite la distinción a partir de la determinación de categorías temáticas, que permite una articulación de elementos isotópicos y configuración de ramas comunes que permiten a su vez, las relaciones de sub-corpus, establecidos a partid de elementos lexicales, morfológicos y semióticos.

 Algo que puntualiza Pincemin es la determinación de lo global sobre lo local, lo cual evita restringir e análisis a la mera observación de frases o elementos perdiendo su articulación, orientando a la investigación a los tejidos estructurales del texto; es clave no perder de vista que el análisis texto métrico exige la vuelta constante de la mirada sobre el texto y no la reducción de sus partes.  Con esta claridad, es posible acentuar la mirada sobre elementos globales de clasificación como los géneros textuales, que se vincularía a elementos de entrada como las descripciones morfosintácticas y se amplía en revisiones infra textuales y supra textuales.  Para este procedimiento, se sugiere integrar tres componentes: el dialéctico, el dialógico y el táctico.

Retomando los elementos de la semántica interpretativa, se sitúa como central el interés en-por el sentido, que pueden empezar a establecerse a partir de componentes estructurales del sistema de clasificación de la lengua como la fonética, la gramática, la morfología, la sintaxis, etc., pasando a explorar elementos como el ritmo, la prosodia, las tipografías etc., haciendo vinculantes los elementos de la lingüística y la semántica. Estos procedimientos requieren no perder de vista el lugar central de los textos en todas las etapas del análisis.

En este sentido, la unidad de análisis prioritaria es el texto, volcando el estudio a todas sus dimensiones, lo cual en términos potenciales permite la intervención sobre elementos micro (como las frases) pero generando conexiones que nos reubiquen en el aspecto macro.  Ese enfoque permitirá descubrir sentidos que en análisis puramente lingüísticos o lexicales quedarían restringidos.  A su vez, el uso de herramientas como Hyperbase, permite dirigirnos a la hipertextualidad, desplazamiento que brinda orientaciones sobre las ocurrencias del contexto textual.   Así, la contextualización se ubica como un principio de análisis al momento de revisar los corpus establecidos; el establecimiento de los lazos a partir de relaciones lexicales, sintácticos etc., como las similitudes, permite el trazado de una cartografía de tipologías. El autor especifica que desde la modelización pueden caracterizarse contextos locales –a través de las coocurrencias y concordancias- , así como globales, desde especificidades del análisis factorial de correspondencias.  Para ello se proponen los principios de:

•           Contextualidad: vinculo de pasajes o signos de un mismo texto, donde los elementos de significación se evidencian desde su reciprocidad.

•           Intertextualidad: representa analogía entre dos pasajes diferentes

•           Architextualidad: este principio establece que el texto situado en el corpus “recibe determinaciones semánticas y modifica potencialmente el sentido de cada uno de los textos que lo componen.  De esta manera, todos los textos incluidos en el corpus generan una lógica de sentido en las frecuencias globales.

El abordaje del contexto amplia las dimensiones del significado y del contenido mismo y permite, como los sugiere Rastier (2001), el matizaje de “formas que destacan sobre un fondo”. Esto permite la conexión con el propósito de la construcción del sentido que se genera en función del texto, que se ve claramente incidida por la selección del corpus, pasando a su codificación y el establecimiento de las correspondencias de datos desde los cuales se definen las unidades, tipologías y otras categorizaciones que permiten definir el cálculo apropiado que considera elementos cuantitativos, pero incorpora en su base fundamental aspectos interpretativos (que se despliegan es experiencias procedimentales como la hermenéutica de pasajes paralelos que recurre a la comprensión de diversos pasajes en torno a un mismo tema).

Picemin señala que la acción interpretativa puede definirse como una semántica diferencial (como referencia de oposición a la semántica inferencial o referencial) acentuando su materialidad  en la realidad lingüística, plateando así los contornos en los cuales se sitúa la tarea textométrica, que enfoca la tipificación de unidades, estableciendo frecuencias, separando temáticamente y desde tipologías concretas, que permite concretar lo que se identifica y lo que se opone, las relaciones y los contrastes.  En esta tarea, si bien los elementos estadísticos resultan cruciales, termina por acentual el valor preponderante de lo cualitativo en la caracterización de estos sistemas de sentido; ordenando criterios desde lo cuantitativo, el análisis se orienta hacia acciones cualitativas que permiten establecer los matizajes, los puntos medios, las correspondencias, las unidades que orientan la interpretación siempre desde una vuelta al texto.

Reconocer esta estructura, permite también referirnos a la unificación  de la semántica interpretativa, por los planos que articula desde las dinámicas interpretativas y diferenciales, integrando aspectos de análisis que han pretendido abordarse de manera separada o independiente (como el análisis pragmático o sintáctico), permitiendo de esta manera que la textometria integre diversas dimensiones, como el estudio de palabras, que se extienda, por ejemplo a las lexicalizaciones y de allí a las coocurrencias, integrando a su vez elementos de la forma interior y de la forma exterior que vincula los planos centrales de las formas semánticas y las formas expresivas.

Estas consideraciones son tenidas en cuenta en los diseños y posibilidades de las herramientas informáticas y tecnológicas que posibilitan la medición textométrica y desde allí, la modelización de los textos y los corpus estructurados, en pro de avanzar el análisis sobre los múltiples niveles lingüísticos, que se sigan proyectando sobre las unificaciones y grados de diferencialidad (explicitados en las regularidades, las oposiciones, las repeticiones, las singularidades, etc.), lo cual ha abierto el campo de la textometria buscando enfatizar posibles funcionalidades que enriquezcan el análisis .

Se consolida así un proceso metodológico que permite el establecimiento de correlaciones y elementos nucleares (o en palabras de Pincemin: moléculas sémicas) claves en la conformación de los temas que consolidan la estructura del texto.  De esta manera se teje una red que reconoce el valor de elementos lingüístico y se despliega hacia la temática, la dialéctica, la dialógica y la táctica (componentes ya señalados como claves de la descripción textual).  Desde la lógica de interfaces, la propuesta apunta a una integración que pensaría en las funcionalidades, el examen y los encadenamientos, en un trabajo multinivel.

De esta manera, los aportes y consideraciones establecidos desde la semántica interpretativa, permite ampliar los horizontes y la pertinencia del trabajo texto métrico, como enfoque o diseño analítico que si bien está aún en construcción, brinda herramientas y procedimientos que permiten la detección de connivencias que hacen cruciales al texto, las dimensiones contextuales –o contextualización-la intertextualidad y el establecimiento de corpus que en el plano de la interpretación, permiten ver las dinámicas de producción de sentido (en el eje del análisis semántico).   Las taxonomías y criterios explorados abogan también por el desarrollo de herramientas informáticas, ampliando los márgenes de reflexión sobre la labor semántica e interpretativa, desde dimensiones hermenéuticas, que, desde operaciones cualitativas relevantes, pueden arrojar aspectos inéditos sobre las bases materiales del texto.

Referencias

BRUNET, Etienne (2006a). Hyperbase, logiciel documentaire et statistique pour la création et l’exploitation de bases hypertextuelles. Manuel de référence. Version 6.0 (mai 2006). Laboratoire Bases, Corpus et Langage, UFR Lettres, Université de Nice.

LEBART, Ludovic; Salem, André et Bécue, Mónica (2000). Análisis estadístico de textos, Lleida: Editorial Milenio.

Pincemin, B. (2010). Semántica interpretativa y textometría. Tópicos del Seminario, 23, 15-55

RASTIER, François (1987). Sémantique interprétative, Presses Universitaires de France. Traducción de Eduardo Molina y Vedia: Semántica interpretativa, México: Siglo XXI, 2005.

RASTIER, François  (2001). Arts et sciences du texte, Presses Universitaires de France. Traducción de Enrique Ballón Aguirre: Artes y ciencias del texto [en prensa].

El discurso como práctica social – MMCORRAL

Fairchlough (1989), en este capítulo presenta cuatro temas fundamentales relacionados con el discurso los cuales se resumen en el lenguaje y el discurso, el discurso y las órdenes de discurso, clase y poder en sociedades capitalistas, y dialéctica de estructuras y prácticas.  Estos temas son posteriormente desarrollados en oros capítulos en más detalle.

Iniciando con el lenguaje y el discurso a través de un ejemplo de conversación nos muestra como las condiciones sociales ayudan a determinar las propiedades mismas del discurso, así mismo es importante tener cuidado en la interpretación de los textos y la producción de estos y como los procesos están inmersos en la sociedad misma.

Lenguaje y discurso: el lenguaje determinado como una práctica social por las diferentes estructuras sociales, pero el termino lenguaje tiene varios sentidos de uso, incluidos la lengua, “langue” y la palabra “parole”, donde Saussure presenta la lengua como un sistema previo al uso del lenguaje actual el cual se considera el mismo para la comunidad, y todos tienen el mismo acceso al lenguaje, mientras la palabra “parole” se convierte en individual.

El discurso como práctica social: el lenguaje es parte de la sociedad y los fenómenos lingüísticos son fenómenos sociales., es un proceso social y adicionalmente es condicionado por la sociedad.

Volviendo al lenguaje como un proceso social, y buscando diferenciar el discurso del texto, el texto es un producto más que un proceso, mientras que el discurso es un proceso de relacionamiento social del cual el texto es solamente una parte. Este proceso incluye la producción del texto y la interpretación de este. El análisis del texto es una parte de análisis del discurso, el cual incluye proceso de producción e interpretación, por lo tanto, el discurso incluye condiciones sociales que se pueden especificar como condiciones sociales de producción e interpretación.

El lenguaje visto como práctica social y como discurso, parte del compromiso de las personas es no solamente analizar los textos, o su producción e interpretación, sino el análisis de la relación entre texto, proceso y condición social.

El lenguaje visual y verbal también es un elemento importante en los discursos, cuando se tienen textos hablado, y entran otros elementos a ser parte interpretativa del discurso.

El discurso y órdenes del discurso: para Michael Foucault, las órdenes del discurso son los conjuntos o redes interdependientes, lo que es una ideología particular. Se presenta una diferenciación entre orden social y orden del discurso, vistos como practicas sociales o de discurso. Las órdenes sociales difieren en los tipos de prácticas que relacionan y las órdenes de discurso difieren de acuerdo con los tipos de discurso que relacionan.

Clase y poder en sociedades capitalistas: las condiciones sociales del discurso pueden ser diferentes a nivel institucional, dadas las relaciones de poder a nivel de instituciones y regidas por esquemas capitalistas, por ejemplo, instituciones regidas por esquemas de producción con fines de lucro comerciales o de utilización inmediata. Se presentan en las diferentes sociedades, relaciones de poder, relaciones de clases y luchas sociales, de grupos étnicos, hombres y mujeres.

En el análisis de la sociedad y análisis del discurso nos presenta el autor algunas relaciones para poder determinar cuáles pueden ser revisadas en las sociedades capitalistas y sus características de órdenes del discurso.

Dialéctica de estructuras y prácticas: la relación entre las estructuras sociales y el discurso tiene argumentaciones que pueden ser dialogadas. El discurso contribuye a los cambios sociales, así como a su continuidad.

Referencias

Fairchlough, N. (1989) Language and power. Longman. (Capitulo 2: Discourse as social practice) 

Análisis del discurso – Conceptos claves – MMCORRAL

Análisis del discurso – conceptos claves

De acuerdo con Ïñiguez et al, (2006), el discurso es el conjunto de prácticas del lenguaje que mantiene las relaciones sociales y su análisis es el estudio de cómo esas prácticas actúan manteniendo las relaciones. Es traer el poder del lenguaje como una práctica constituyente y regulativa” L. Íñiguez y C. Antaki (1994).

Existen conceptos que se contemplan bajo el análisis del discurso de acuerdo con Otaola (1989), y varias disciplinas tratan este tema con diferentes teorías, pero siempre se tiene el discurso y lo que significa, la relación entre el lenguaje y el mundo y las diferentes formas de comunicación (Otaola, 1989). Existen varias definiciones del concepto de discurso según diferentes autores sin embargo hay una coincidencia, “la consideración del discurso como el uso del lenguaje o, dicho de otra manera, la lengua en funcionamiento” (Otaola, 1989, p.83), y como afirma T.A. van Dijk (1985, p. 10), el discurso es manifestación de la sociedad e involucra conocimiento, interacción sociedad y cultura, El significado de las palabras depende del contexto donde se usan. O sea, las mismas palabras pueden significar diferente, dependiendo del discurso. El lenguaje no solamente transmite información, sino que se convierte en acción o intención. (Otaola, 1989).

Efectivamente, como dicen G. Brown y G. Yule, (1986, p26), «El analista del discurso trata sus “data” como un registro (texto) de un proceso dinámico en el que el lenguaje se utilizó como instrumento de comunicación en un contexto, por un hablante/escritor, para expresar significados y lograr intenciones.»

Otro es el significado pragmático, que es la disciplina que toma en consideración otros factores que determinan el uso del lenguaje, la pragmática se centra en la relación del significado gramatical con quien habla y con los hechos que intenta describir, analiza la forma de las expresiones y las actitudes de los usuarios (Escandell, 1993, cap. 2). De acuerdo con Ïñiguez et al, (2006), la pragmática difiere del modelo de comunicación tradicional en que existe un contexto que podemos entender, y por lo tanto el uso del lenguaje nos lleva al concepto de pragmática. Necesitamos el lenguaje para comunicarnos y esos contextos de relación y sociales nos llevan a la pragmática. Este contexto no se puede identificar únicamente con una situación de tiempo y espacio que es temporal, el que habla y el que oye, sino que deben tener espacio otros elementos de conocimiento y relación, como lo que S. C. Levinson (1983) denomina «el conocimiento mutuo de una intención comunicativa».

Una contribución importante al AD (análisis del discurso) es el acto de habla, que son las expresiones que generan efectos que tienen significado, según Austin (1962) es cómo se habla y que significado tiene el acto, y que el hablar es una acción como cualquiera y sostiene que cuando hablamos estamos haciendo algo no solamente expresando un significado.

El AD como método de investigación utiliza las mismas herramientas de una acción social y el analista debe establecer relación con quien lee su trabajo, para entender y lograr su análisis; también se tiene el ACD (Análisis Crítico del Discurso), que es una perspectiva crítica del AD y es un AD con actitud (Escandell, 1993), y es la actitud que permite confirmar cuando el discurso abusa del poder del lenguaje. Este método no es empírico y no existe una manera de obtener datos que sea propia del ACD. El ACD puede combinarse con cualquier enfoque de las ciencias sociales, se centra en roles más sociales, y expresa un sesgo de opiniones, de acuerdo con la actitud que presente.

Referencias

Antaki, C. (1994) Explaining and Arguing. The social Organization of Accounts. Londres: Sage

Austin, J. (1962/1990). Como hacer cosas con palabras. Barcelona: Paidos.

Brown, G. y Yule, G.: Discours Analysis. Cambrídge University Press 1986, p. 6 y ss

Dijk, T. A. van: «Introduction: Levéis and dimensions of discourse analysis». En Handhook of Discourse Analysis. 4 vol. Academic Press, 1985. Vol. 2. p. 10.

Escandell, V. (1996). Introducción a la pragmática. Barcelona: Ariel.

Iñiguez-Rueda, Lupicinio. (2011). Análisis del discurso. Manual para las ciencias sociales (E-PUB). 

Levinson, Stephen C: Pragmatics. Cambridge University Press, 1983. p. 16.

Otaola; C. (1989) El análisis del discurso. Introducción teórica. EPOS Revista de Filología. No. 5.

Proyecto Revisión Bibliográfica Sistematizada -MMCORRAL

Measuring the Knowledge Base of an Economy in terms of Triple-Helix Relations

Maria Mercedes Corral Strassmann

Mayo 28 de 2020

CONTENIDO

PROYECTO DE REVISION BIBLIOGRÁFICA SISTEMATIZADA.. 1

1       INTRODUCCION.. 2

2       PROBLEMA. 4

3       MÉTODOS. 6

3.1        MUESTRA. 6

3.2        EVALUACIÓN.. 8

3.3        ANÁLISIS. 8

3.4        LIBRO DE CÓDIGOS. 8

3.5        SISTEMA DE CODIFICACIÓN – ESQUEMA DE CODIFICACIÓN: 10

4       RESULTADOS: SÍNTESIS. 13

5       CONCLUSIONES. 15

6       REFERENCIAS. 16

1           INTRODUCCION

El objetivo de este proyecto es realizar una revisión bibliográfica sistematizada utilizando, el método técnico de Codina (2018).

Para este proceso de revisarán las 4 etapas propuestas por Codina (2018), Búsqueda, Evaluación, Análisis y Síntesis, (Grant, Booth, 2009), sobre una muestra de 13 artículos y libros previamente seleccionada con base en unos criterios que responden a algunas de las preguntas planteadas por Hart (2008), que referencias Codina (2018).

Entre estas preguntas están:

La anterior gráfica presenta estas preguntas que empiezan a guiar la búsqueda bibliográfica, de la anterior para mi proyecto he utilizado algunas de estas las cuales enuncio a continuación:

  • ¿Cuáles son las teorías, modelos y conceptos clave en el ámbito del desarrollo y relacionamiento de las Instituciones de Educación Superior (IES)?
  • ¿Cuáles son las principales bases epistemológicas de la educación y el aporte de las IES en su desarrollo con el entorno de desempeño?
  • ¿Cuáles son los temas y avances sobre el relacionamiento de las IES con su entorno en sus diferentes misiones?
  • ¿Cuáles son los principales problemas abordados por las IES principalmente en su tercera misión o misión del servicio?
  • ¿Cuáles son las fuentes claves de búsqueda?
  • ¿Cuáles son los orígenes y definición del tema?
  • ¿Cómo se estructuran y organizan los conocimientos sobre las relaciones de las IES con el gobierno y la industria, y la sociedad?
  • ¿Qué oportunidades de investigación se tienen en este tema frente a valoración del servicio de las IES, en su tercera misión?

De acuerdo con la guía de Codina (2018),

Fuente Codina (2918)

Se presentarán las 4 fases realizadas sobre la muestra definida.

2           PROBLEMA

De acuerdo con mi investigación doctoral la cual tiene como propósito: Formular una propuesta de modelo que emerja de las diversas formas en que las universidades colombianas se relacionan con su entorno, que permita valorar las actividades en la heterogeneidad de sus impactos, beneficiarios y características. Y como pregunta de investigación se han planteado las siguientes:

  • ¿Cuáles son las actividades que se realizan desde la universidad y generan impacto en sus entornos geográficos, sociales, urbanísticos, ambientales, culturales?
  • ¿Cómo se pueden caracterizar estas actividades, de manera que sea posible realizar una valoración de estas?
  • ¿Como se pueden determinar los beneficios que pueden generar a la sociedad las diferentes actividades que se realizan desde la universidad?

Para comenzar el proceso de investigación con estos planteamientos se, inició una búsqueda de fuentes relacionando las actividades que realizan las universidades y cómo éstas se relacionan con su entorno de desempeño, académico y no académico.

La búsqueda se inició en Web of Science por considerar que es una base de datos apropiada, que adicionalmente da garantía, rigor y transparencia (Codina, 2018) y es una de las bases de datos más importantes.

Para el estado de la cuestión se inició con las preguntas referenciadas en la Introducción, y teniendo palabras claves en referencia al tema de las IES, del objetivo y propósito de la investigación, entre ellas: Indicador (es), Universidad (es), Institución de Educación Superior, Gobierno entre otras.

Con base en esta información y teniendo algunos criterios de selección como el número de veces que es nombrado el autor, el tema, la relevancia con el objetivo y con el propósito del proyecto, y definiendo categorías que permitan clasificar las fuentes, se tienen de alguna manera bibliografías referentes al proyecto.

Para el marco conceptual, he utilizado modelos teóricos, cuatro contribuciones teóricas que han resaltado los cambios en las maneras tradicionales de producir conocimientos y la forma en que estos pueden impactar la sociedad, particularmente a través de la innovación.  Tres contribuciones en particular coinciden en la necesidad de la interdisciplinariedad y la intersectorialidad en el abordaje de problemas a través de la investigación, revisando las relaciones de universidad, industria y gobierno. Parte de estas fuentes son las utilizadas en este proyecto.

Y para el marco metodológico ya inicié una búsqueda en Web of Science aproximando y precisando sobre la tercera misión de las IES, que es el espacio en el cuál voy a concentrar el resultado de la investigación.

Anexo la búsqueda al momento sobre Web of Science

Búsqueda Web of Science-  ver Anexo

3           MÉTODOS

Como lo mencioné para la búsqueda inicial se realizó un proceso en Web of Science teniendo como palabras claves de la búsqueda:

  • Indicador (es),
  • Universidad (es),
  • Institución de Educación Superior, (IES),
  • Gobierno
  • Industria
  • Tercera misión
  • Extensión
  • Servicio

Con base en esta información y teniendo algunos criterios de selección como el número de veces que es nombrado el autor, el tema, la relación con el objetivo y propósito de la investigación, se realizó una definición de categorías y codificación.

3.1         MUESTRA

Para este proyecto se tomó la siguiente muestra de documentos, relacionados con el proyecto de investigación, y las cuales han sido producto de una búsqueda en Web of Science, en la correspondiente búsqueda de Web of Science se refiere a las búsquedas #1, #2, #3, #4 y #9, la última adiciona el tema de la tercera misión o misión de servicio de las IES.  Esta última búsqueda arrojó 57 documentos, los cuáles aún no se han analizado y evaluado para el proyecto doctoral.

Básicamente esta muestra se refiere a un tema de marco teórico investigando sobre los modelos que apoyan el desarrollo de las misiones de las IES. Y sobre esta muestra de 13 Artículos y Libros se elaboraron las correspondientes Fichas en el formato de Codina (2018). Las fichas se anexan como documento y se comparten también en el drive.

  • Ficha 3: Arcila, R.E, La Universidad en América Latina, Universidad Autónoma Latioamericana, UNAULA www.unaula.edu.co
  • Ficha 8: Arocena R & Sutz Judith, Universidades para el Desarrollo, Universidad de la República de Uruguay, Foro abierto de Ciencia para Latinoamérica y Caribe, UNESCO, (2016)
  • Ficha 11: Arocena R & Sutz Judith, “Sistemas de innovación e inclusión social”, Universidad de la República Uruguay, (2010).
  • Ficha 1: Etzkowitz H (a),  Leydesdorff  L,(b) The dynamics of innovation: from National Systems and ‘‘Mode 2’’ to a Triple Helix of university–industry–government relations,   (a) Science Policy Institute, Social Science DiÍision, State UniÍersity of New York, (b)  Department of Science and Technology Dynamics, Nieuwe Achtergracht 166, 1018 WV Amsterdam, Netherlands, Research Policy 29 _2000. 109–123
  • Ficha 13: Gibbons, M., Limoges, C., Nowotny, H., Schwartzman, S., Seot, P. Trow, M, The New Production of Knowledge, The Dynamics of Science and Research in Contemporary Societies, SAGE Publications, London. (2002),
  • Ficha 9: Göransson, B. & Brundenius, C., Universities in Transition: 3 The Changing Role and Challenges for Academic Institutions, International Development Research Centre, Part 1, (2011)
  • Ficha 2: Leydesdorff, L, The mutual information of university-industry-government relations: An indicator of the Triple Helix dynamics, Jointly published by Akadémiai Kiadó, Budapest Scientometrics, and Kluwer Academic Publishers, Dordrecht Vol. 58, No. 2 (2003) 445.467, (2003),
  • Ficha 4: Leydesdorff, L (reprint author), Triple Helix indicators of knowledge-based innovation systems – Introduction to the special issue, Univ Amsterdam, ASCoR, Kloveniersburgwal 48, NL-1012 CX Amsterdam, Netherlands,  Research Policy Vol. 35 (2006)
  • Ficha 5: Leydesdorff, L (reprint author), Measuring the knowledge base of an economy in terms of  triple-helix relations among ‘technology, organization, and territory’, Univ Amsterdam,  Amsterdam Sch Commun Res, Kloveniersburgwal 48, NL-1012 CX Amsterdam, Netherlands
  • Ficha 10: Lucio, J. , Observando el sistema Colombiano de Ciencia Tecnología e Innovacion, sus actores y sus productos, Bogotá: Observatorio Colombiano de Ciencia y Tecnología, (2013).
  • Ficha 7: Melo-Becerra, L.A.,  (2), L.A., Ramos-Forero, J.E., (3),  Hernández-Santamaría, P.O., (4), La educación superior en Colombia: situación actual y análisis de eficiencia, Revista Desarrollo y Sociedad, Banco de la República. Universidad de los Andes, (2017)
  • Ficha 12: Park, HW, Yeungnam Univ, Gyongsan, South Corea, Hong, HD, A comparison of the knowledge-based innovation systems in the economies of South Korea and the Netherlands using Triple Helix indicators,  Kan Wong National University, South Korea, KangWon National University, South Korea, Leydesdorff, L, University of Amsterdam, The Netherlands, Scientometrics (2005; forthcoming), (2005),
  • Ficha 6: Santos, P. (2016). Moving the Universities to the «Third Mission» in Europe, New Impulses and Challenges in Doctoral Education. Foro de Educación, 14(21), 107-132. doi: http://dx.doi.org/10.14516/fde.2016.014.021.006             

3.2         EVALUACIÓN

Para la evaluación de esta muestra, se decide:

Artículos científicos, Libros relacionados con el tema, Artículos de casos en Latinoamérica, sin embargo, no se descartan otras zonas geográficas pues pueden ayudar en elementos de comparación.

Se descartaron dos artículos iniciales, referidos a la situación en Colombia por no ser de actualidad, ni tampoco de calidad.

3.3         ANÁLISIS

Con la muestra seleccionada se realiza un AC, manual con los parámetros definidos en la evaluación, dado el tamaño de la muestra (13), incluidos 3 libros. Al momento ya se ha realizado la correspondiente lectura de los artículos y su evaluación y relación con el proyecto. Adicionalmente se ha realizado lectura de algunos capítulos de los libros, los más relevantes para el objetivo y propósito de la investigación del proyecto.

Se utilizaron las fichas de Codina (2018) y se adicionó el campo de Metodología, dado que puede servir para el proyecto y adicionalmente es una categoría de clasificación de códigos.

Se definieron como categorías:

  • Tipo de documento
  • Tipo de investigación
  • Modelos teóricos
  • Relacionamiento con externos
  • Relacionamiento interno de la Universidad
  • Metodología

3.4         LIBRO DE CÓDIGOS

Tema Universidades y su relación con su entorno de desempeño.

Medio – medio en que se encuentra la fuente

  1. Digital
  2. Impreso

Tipo de Documento – Tipo de fuente

  1. Articulo – Artículo científico publicado
  2. Libro –
  3. Tesis – Investigación sobre el tema
  4. Ensayo
  5. Artículo no científico
  6. Foro  – foro o reunión nacional o internacional

Tipo de investigación – Investigación realizada con la fuente

  1. Documental – Documentos teóricos sobre el tema
  2. Investigación acción – Proyectos realizados con la investigación
  3. Investigación creación – Investigación que ha generado algún producto nuevo

Resultados en los que trabaja el documento fuente

  1. Indicadores – generación de indicadores
  2. Collaboration – productos de colaboración
  3. Analysis – análisis de datos
  4. Evolution – nuevas torías o modelos o experiencias
  5. Taxonomy – taxonomía como resultado
  6. Quality – análisis de calidad

Modelos – teóricos que han cambiado la forma de producir conocimiento en las Instituciones de Educación Superior – IES

  1. Innovación – Modelo de innovación se puede definir como un proceso colectivo el cual reúne varios actores, como universidades, centros de investigación, entidades de gobierno, y organizaciones del sector productivo.
  2. Triple hélice – Modelo que une Gobierno- Industria – Universidad en relación con la innovación.
  3. Modo 2 – Modelo que trata con las condiciones de la organización y la producción de conocimiento en donde éste es, ante todo, transdisciplinario; es decir que conjuga perspectivas disciplinares alrededor de un mismo objetivo
  4. Triangulo de Sábato -Tres agentes El estado – la infraestructura científica y tecnológica – y el sector productivo

Relacionamiento con externos – Enfoque de la fuente hacia sectores externos a las IES y a la Educación

  1. Industry – Industrias que desarrollan conocimiento para la relación con las IES
  2. Government – El estado y su relación con las IES
  3. Spillovers – Startups desde las IES
  4. Entrepeneurship – Emprendimientos apoyados por las IES
  5. Commercialization – Comercio, consultorías proyectos para las IES

Relacionamiento interno de la Universidad – Enfoque de la fuente en el marco de la IES o Universidad

  1. Research – investigación y generación de conocimiento
  2. Collaboration – Proyecto de colaboración con otras instancias, el gobierno, otro país, la industria.
  3. Higher Education – Proyecto de educación, alrededor de actualización.
  4. Extension service – El servicio de la Universidad alrededor de la sociedad.
  5. Academic Reasearch  – Investigación académica.
  6. Scientific Collaboratio – Proyecto de colaboración científica con alguna Institución de investigación y desarrollo
  7. Public Research – Investigación realizada porel gobierno o una institución de carácter público.
  8. Entrepeneurial – Emprendiemiento, organización o proyecto.

Metodología -metodología usada en la fuente

  • Cualitativa
  • Cuantitativa
  • Mixta
  • Probabilidades

Se anexa la Tabla Excel correspondiente.

3.5         SISTEMA DE CODIFICACIÓN – ESQUEMA DE CODIFICACIÓN:

En la siguientes Tablas se muestran las categorías definidas y los códigos correspondientes a estas categorías.

Tabal 1 –   Categorías y la Tabla 2 – Códigos

4           RESULTADOS: SÍNTESIS

De acuerdo con las categorías y los códigos definidos, se aplicó esta categorización y codificación a la muestra de 13 documentos que conformaron la muestra.

De acuerdo con las preguntas planteadas por Hart (2008), y que relaciono en la introducción en referencia con mi investigación,  con la muestra seleccionada,  únicamente algunas se podrían llegar a responder y no de manera completa Las preguntas que logré responder con el proceso realizado las relaciono a continuación, con algunos comentarios sobre las mismas.

  • ¿Cuáles son las teorías, modelos y conceptos clave en el ámbito del desarrollo y relacionamiento de las Instituciones de Educación Superior (IES)?
    • La muestra determina algunos de los modelos teóricos que muestran cómo se relaciona la universidad con su entorno. Faltaría búsqueda adicional para otros modelos, que existen.
    • Adicionalmente falta, profundizar más en los modelos relacionados.
  • ¿Cuáles son los principales problemas abordados por las IES principalmente en su tercera misión o misión del servicio?
    • La muestra no contenía suficientes documentos con este tema por los cual no se tiene nada adicional.
  • ¿Cuáles son las fuentes claves de búsqueda?
    • Es evidente que se debe buscar tanto artículos científicos, como proyectos prácticos que puedan ayudar a evidenciar el desempeño de las IES, en su entorno y relacionamiento con otras instancias como el gobierno y la industria.
    • En la muestra, se ven algunos resultados de este tema, en Uruguay, Korea y en el libro de “Universities in Transition”, se presentan casos prácticos en varios países del mundo.
  • ¿Cuáles son los orígenes y definición del tema?
    • Esta pregunta se puede ver a la luz, de varios artículos y libros de la muestra, donde se ve el relacionamiento de la fuente con temas propios de la IES o temas relacionados con externos, como se definió en la clasificación de las categorías. (Tabla 3).
    • Esta búsqueda ayudará a revisar como las IES se relacionan en su entorno de desempeño, con entidades del gobierno, industria y las mismas IES.
  • ¿Cómo se estructuran y organizan los conocimientos sobre las relaciones de las IES con el gobierno y la industria, y la sociedad?
    • De la muestra seleccionada es posible iniciar a responder esta pregunta, sin embargo, faltan más elementos que permitan generar conclusiones, mediciones y esquemas que ayuden a valorar estas relaciones, lo cual será parte de mi investigación.
  • ¿Qué oportunidades de investigación se tienen en este tema frente a valoración del servicio de las IES, en su tercera misión?,
    • La muestra no permite responder esta pregunta, pero es parte fundamental del objetivo de mi investigación.

La síntesis debería ayudar a responder todas estas preguntas.  En este caso con una muestra relativamente pequeña, aunque focalizada en temas teóricos, ayuda a fortalecer el conocimiento en el tema de los modelos que existen, o contribuciones teóricas que han permitido cambiar el esquema de producción de conocimiento. Sin embargo, para el tema de la tercera misión de las IES, no es una muestra suficiente.

También de acuerdo con (Bloomberg y Dale, 2016), uno de los objetivos de la revisión es encontrar un panorama de los conceptos que estamos buscando, teorías y datos, relacionados con el tema de investigación. Para esta muestra reitero que es útil en tema de modelos teóricos.

El material buscado y encontrado no solamente nos debe proporcionar unas descripciones de contenidos, sino lograr un resumen de conocimientos sobre el tema de la investigación y así mismo la habilidad para pensar críticamente sobre la información encontrada. (Bloomberg y Dale, 2016). En este caso, son conocimientos adicionales sobre modelos y algunos casos prácticos a nivel de varios países, lo cual, si aporta para establecer comparación y posibles revisiones a nivel de Colombia sobre casos similares y como están las IES, en estas relaciones de gobierno e industria.  Para el caso de la tercera misión, la muestra no es suficiente.

Como un comentario adicional, los libros relacionados me han dado elementos de conocimiento más profundo de estas relaciones de las IES, como también sobre los mismos modelos teóricos referenciados.

Revisando la Tabla 3, si es claro que la muestra concentra información referente a modelos, y relacionamiento de las IES, tanto interno de la Universidad como externos, donde entra el gobierno y la industria como dos agentes en esta relación.

5           CONCLUSIONES

De acuerdo con el trabajo realizado de esta revisión bibliográfica sistematizada, puedo generar algunas conclusiones, para mi proyecto de investigación.

Para la búsqueda de documentos, en general es importante definir categorías de búsqueda y afinarlas de acuerdo con las necesidades de la investigación. El trabajo que inicié sobre esta búsqueda, en Web of Science, me ha servido para encontrar un conjunto más pequeño y preciso sobre el tema principal de mi investigación. Continuaré con la búsqueda y con los afinamientos necesarios para encontrar más fuentes referentes a la tercera misión, que es precisamente el tema más complejo, pero más importante en mi proyecto.

Es siempre necesario definir las categorías a utilizar y con la claridad y la rigurosidad necesarias para el tipo de proyecto. Este esquema seguirá siendo importante para un análisis de completitud y tipo de muestra que se tiene, lo cual también permite filtrar fuentes y decidir cuáles aportan mayor valor a la investigación.

Para la bibliografía sistematizada de Codina (2018) es necesario tener buenas fuentes, un esquema de evaluación, claro y preciso, donde se definan parámetros para tener en cuenta con las fuentes encontradas, lo cual ayuda a filtrar la bibliografía y generar mejor calidad en la misma.

Adicionalmente, este proyecto, me deja un aprendizaje para capitalizar y continuar profundizando en la técnica de Codina (2018), para lograr una revisión bibliográfica sistematizada, completa que me permita un análisis y síntesis acorde con la investigación doctoral.

Dadas las restricciones de tiempo y tamaño de la muestra los resultados del ejercicio me dejan la experiencia y aprendizaje de como utilizar los conceptos del proceso de codificación, y de búsqueda más selectivas; y más acorde con la necesidad de la investigación. Así mismo establecer el proceso riguroso planteado por Codina (2018) de Búsqueda, Evaluación, Análisis y Síntesis.

Anexo Búsqueda en Web of Science

Anexo: Fichas

Anexo Libro de Códigos

6           REFERENCIAS

Bloomberg, Linda D .; Volpe, Marie . “Developing and Presenting Your Literature Review”. En: Completing your Qualitative Dissertation: A Road Map From Beginning to End . London: Sage, 2016.

Codina, Lluís​. ​Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. ​Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018

Grant, Maria J.; Booth, Andrew. “A typology of reviews: an analysis of 14 review types and associated methodologies”. Health Information and Libraries Journal, 26, pp.91–108, 2009. Acceso: onlinelibrary – wiley

Hart, Chris. Doing a Literature Review: Releasing the Social Science Research Imagination. London: Sage, 2008

Mini-Proyecto Análisis de Contenido – MMCORRAL

 

PROYECTO DE ANALISIS DE CONTENIDO

MÉTODOS AVANZADOS DE INVESTIGACIÓN

                                                                       Profesor Andrés Lombana.

Maria Mercedes Corral Strassmann

Mayo 24 de 2020

  1.  

CONTENIDO

PROYECTO DE ANALISIS DE CONTENIDO.. 1

1       INTRODUCCION.. 3

2       PROBLEMA. 3

3       MÉTODOS. 4

4       MUESTRA. 5

5       CATEGORÍAS DE ANÁLISIS. 6

6       SISTEMA DE CODIFICACIÓN – ESQUEMA DE CODIFICACIÓN: 8

7       APLICACIÓN DEL SISTEMA DE CODIFICACIÓN.. 9

8       REFLEXIÓN SOBRE FIABILIDAD Y VERACIDAD DEL SISTEMA DE CODIFICADO.. 9

9       CONCLUSIONES. 13

10         REFERENCIAS. 14

10.1          Otras Referencias. 14

 

Maria Mercedes Corral Strassmann

Mayo 24 2020

1         INTRODUCCION

El análisis de contenido (AC), es una de las técnicas de investigación más importantes de las ciencias sociales, y permite entender los datos como fenómenos simbólicos más que situaciones físicas, así mismo el AC va más allá de las nociones del contenido como objeto de estudio. de acuerdo con Krippendorff (1980). El AC permite crear técnicas y utilizar herramientas para su análisis de resultados y es una manera de empezar con el análisis de la literatura referente al problema de investigación doctoral.

Los métodos tradicionales de análisis de contenido, y de búsqueda y análisis de bibliografía siguen siendo usados, pero sin embargo tienen limitaciones y tienden a ser subjetivos en algunos aspectos. La metodología sugerida por Codina (2018), para la revisión bibliográfica sistematizada, y la utilización de herramientas como el CAT, (Coding Analysis Toolkit), ayudan a generar mejores resultados.

Para este mini-proyecto se tiene como objetivo realizar un análisis de contenido muy resumido de algunas fuentes ya seleccionadas, crear el libro de códigos y la categorización y posteriormente utilizando CAT, realizar un análisis de fiabilidad con un proceso de revisión de pares generando índices Krippendorff Alpha y índice Kappa, descritos y presentados en Saldana (2016). para un posterior análisis de resultados.

2         PROBLEMA

De acuerdo con mi investigación doctoral la cual tiene como propósito. Formular una propuesta de modelo que emerja de las diversas formas en que las universidades colombianas se relacionan con su entorno, que permita valorar las actividades en la heterogeneidad de sus impactos, beneficiarios y características. Y como presunta de investigación se han planteado las siguientes:

•           ¿Cuáles son las actividades que se realizan desde la universidad y generan impacto en sus entornos geográficos, sociales, urbanísticos, ambientales, culturales?

•           ¿Cómo se pueden caracterizar estas actividades, de manera que sea posible realizar una valoración de estas?

•           ¿Como se pueden determinar los beneficios que pueden generar a la sociedad las diferentes actividades que se realizan desde la universidad?

Para comenzar el proceso de investigación con estos planteamientos se, inició una búsqueda de fuentes relacionando las actividades que realizan las universidades y cómo éstas se relacionan con su entorno de desempeño, académico y no académico.

Se inició con una búsqueda en Web of Science por considerar que es una base de datos apropiada, que adicionalmente da garantía, rigor y transparencia (Codina, 2018) y es una de las bases de datos más importantes.

3         MÉTODOS

Para este proceso de AC, se va a utilizar el modelo de Codina (2018), que comprende las cuatro etapas:

  • Búsqueda
  • Evaluación
  • Análisis y
  • Síntesis

      Fuente Codina (2018)

Como lo mencioné para la búsqueda inicial se realizó un proceso en Web of Science teniendo como palabras claves de la búsqueda:

  • Indicadores,
  • Universidad
  • Institución de Educación Superior
  • Gobierno
  • Industria
  • Tercera misión
  • Extensión

Con base en esta información y teniendo algunos criterios de selección como el número de veces que es nombrado el autor, el tema. Se realizó una codificación y se generó una clasificación y creación de algunas categorías; y para este mini-proyecto se consideraron estas categorías ya definidas y se elaboró el libro de códigos.

Posteriormente utilizando CAT se realizó un análisis de fiabilidad con CAT, y para este análisis se tomaron como datos de referencia de las fuentes:

  • Título
  • Autor
  • Filiación
  • Abstract
  • Palabras Claves
  • Conclusión

Este análisis en CAT se realizó con un par, y se generaron los resultados que se analizarán al final de informe.

4         MUESTRA

Para el mini-proyecto se tomó la siguiente muestra de documentos, relacionados con el proyecto de investigación:

  • Arcila, R.E, La Universidad en América Latina, Universidad Autónoma Latioamericana,  UNAULA www.unaula.edu.co
  • Arocena R & Sutz Judith, Universidades para el Desarrollo, Universidad de la República de Uruguay, Foro abierto de Ciencia para Latinoamérica y Caribe, UNESCO, (2016)
  • Etzkowitz H (a),  Leydesdorff  L,(b) The dynamics of innovation: from National Systems and ‘‘Mode 2’’ to a Triple Helix of university–industry–government relations,   (a) Science Policy Institute, Social Science DiÍision, State UniÍersity of New York, (b)  Department of Science and Technology Dynamics, Nieuwe Achtergracht 166, 1018 WV Amsterdam, Netherlands, Research Policy 29 _2000. 109–123
  • Gibbons, M., Limoges, C., Nowotny, H., Schwartzman, S., Seot, P. Trow, M, The New Production of Knowledge, The Dynamics of Science and Research in Contemporary Societies, SAGE Publications, London. (2002),
  • Göransson, B. & Brundenius, C., Universities in Transition: 3 The Changing Role and Challenges for Academic Institutions, International Development Research Centre, Part 1, (2011)
  • Leydesdorff, L, The mutual information of university-industry-government relations: An indicator of the Triple Helix dynamics, Jointly published by Akadémiai Kiadó, Budapest Scientometrics, and Kluwer Academic Publishers, Dordrecht Vol. 58, No. 2 (2003) 445.467, (2003),
  • Leydesdorff, L, & Meyer, M. Triple Helix indicators of knowledge-based innovation systems, Introduction to the special issue,  Research Policy Vol. 35 (2006)
  • Leydesdorff, L (reprint author), Triple Helix indicators of knowledge-based innovation systems – Introduction to the special issue, Univ Amsterdam, ASCoR, Kloveniersburgwal 48, NL-1012 CX Amsterdam, Netherlands,  (2006)
  • Leydesdorff, L (reprint author), Measuring the knowledge base of an economy in terms of  triple-helix relations among ‘technology, organization, and territory’, Univ Amsterdam,  Amsterdam Sch Commun Res, Kloveniersburgwal 48, NL-1012 CX Amsterdam, Netherlands
  • Melo-Becerra, L.A.,  (2), L.A., Ramos-Forero, J.E., (3),  Hernández-Santamaría, P.O., (4), La educación superior en Colombia: situación actual y análisis de eficiencia, Revista Desarrollo y Sociedad, Banco de la República. Universidad de los Andes, (2017)
  • Park, HW, Yeungnam Univ, Gyongsan, South Corea, Hong, HD, A comparison of the knowledge-based innovation systems in the economies of South Korea and the Netherlands using Triple Helix indicators,  Kan Wong National University, South Korea, KangWon National University, South Korea, Leydesdorff, L, University of Amsterdam, The Netherlands, Scientometrics (2005; forthcoming), (2005),

5         CATEGORÍAS DE ANÁLISIS

Se definieron como categorías:

  • Tipo de documento
  • Tipo de investigación
  • Modelos teóricos
  • Relacionamiento con externos
  • Relacionamiento interno de la Universidad
  • Metodología

Libro de códigos – Mini proyecto – Tema Universidades y su relación con su entorno de desempeño

Tipo de Documento – Tipo de fuente

  1. Articulo – Artículo publicado
  2. Libro –
  3. Tesis – Investigación sobre el tema

Tipo de investigación – Investigación realizada con la fuente

  1. Documental – Documentos teóricos sobre el tema
  2. Investigación acción – Proyectos realizados con la investigación
  3. Investigación creación – Investigación que ha generado algún producto nuevo

Modelos teóricos que han cambiado la forma de producir conocimiento en las Instituciones de Educación Superior – IES

  1. Innovación – Modelo de innovación se puede definir como un proceso colectivo el cual reúne varios actores, como universidades, centros de investigación, entidades de gobierno, y organizaciones del sector productivo.
  2. Triple hélice – Modelo que une Gobierno- Industria – Universidad en relación con la innovación.
  3. Modo 2 – Modelo que trata con las condiciones de la organización y la producción de conocimiento en donde éste es, ante todo, transdisciplinario; es decir que conjuga perspectivas disciplinares alrededor de un mismo objetivo
  4. Triangulo de Sábato -Tres agentes El estado – la infraestructura científica y tecnológica – y el sector productivo

Relacionamiento con externos – Enfoque de la fuente hacia sectores externos a las IES y a la Educación

  1. Industry – Industrias que desarrollan conocimiento para la relación con las IES
  2. Government – El estado y su relación con las IES
  3. Spillovers – Startups desde las IES
  4. Entrepeneurship – Emprendimientos apoyados por las IES
  5. Commercialization – Comercio, consultorías proyectos para las IES

Relacionamiento interno de la Universidad – Enfoque de la fuente en el marco de la IES o Universidad

  1. Research – investigación y generación de conocimiento
  2. Collaboration – Proyecto de colaboración con otras instancias, el gobierno, otro país, la industria.
  3. Higher Education – Proyecto de educación, alrededor de actualización.
  4. Extension service – El servicio de la Universidad alrededor de la sociedad.

Metodología -metodología usada en la fuente

  • Cualitativa
  • Cuantitativa
  • Mixta
  • Probabilidades

6         SISTEMA DE CODIFICACIÓN – ESQUEMA DE CODIFICACIÓN:

De estas categorías definidas se tomatón las siguientes para el mini-proyecto, para ser utilizadas en el análisis de fiabilidad.

  Tabla 1 – Categorías

Y los códigos correspondientes a estas categorías son:

Tabla 2 – Códigos

7         APLICACIÓN DEL SISTEMA DE CODIFICACIÓN

Se conformó un corpus con 6 documentos relacionados con mi proyecto de investigación. Tomando para cada artículo la información descrita en el capítulo 3.

Se crearon en CAT, los data sets correspondientes, y se tomó como codificación el resumen de la Tabla 2.

Con un par codificador se desarrolló la actividad de codificado, sobre el data set.

Finalizado el proceso de codificación con el par, se generaron los siguientes resultados.

8         REFLEXIÓN SOBRE FIABILIDAD Y VERACIDAD DEL SISTEMA DE CODIFICADO

Una vez se realiza el proceso de codificado con el par, se obtienen los siguientes resultados,

Dadas las características de la prueba de fiabilidad realizada, con un corpus pequeño, y una codificación también resumida, se puede ver que los resultados no son exactamente los esperados.

La información de cada artículo era limitada y en mi concepto faltan códigos que ayuden a aclarar la clasificación. Adicionalmente es posible que las categorías no estén claramente definidas y tampoco ayuda a a evaluación, del par.

Respecto a la frecuencia de códigos asignados, también se puede ver si las categorías y los códigos realmente están bien definidos. O si es necesario revisar nuevamente la codificación. Adicionalmente sería necesario un segundo nivel de codificación y revisión de resultados.

Los análisis comparativos y los índices resultantes se muestran a continuación:

En índice Kappa, arroja un resultado de 0.38, el cual realmente es bajo para un análisis de fiabilidad, este resultado de acuerdo con Montoro & Muñoz (2005) , un valor ente 0.2 y 0.4 se considera un grado de acuerdo bajo para el índice Kappa.

Aunque se puede observar que hay algunos índices parciales de 1.00, que es muy bueno de acuerdo con Montoro & Muñoz (2005) sin embargo varios niveles parciales también están en 0.0, que es realmente muy malo.

De acuerdo con Lombard (2002), que, en su artículo, aclara que adicionalmente a la definición apropiada de códigos, para el análisis de fiabilidad, se debe determinar el nivel de aceptación del resultado. Un porcentaje de aceptación del análisis de fiabilidad no debe ser inferior al 80%, por lo tanto en este caso el análisis debería repetirse y revisar previamente, tanto categorías como códigos y la información de lamuestra.

Tabla 3 – Índice Kappa

El índice Krippendorff Alpha, generó como resultado la siguiente tabla., en la cual se observan algunos acuerdos, pero también algunas discrepancias en el tipo de investigación lo cual llevaría a una revisión de códigos también. Adicionalmente la claridad de las categorías y la muestra seleccionada.  Lombard (2002), plantea que este índice Krippendorff – alpha, sirve para análisis de varios codificadores y permite variables en diferentes niveles de medición desde  nominales hasta ratios, los cuál puede ayudar en el análisis.

9         CONCLUSIONES

Es claro que el AC, como técnica de investigación en ciencias sociales, es un mecanismo fuerte para lograr buenos resultados.

Durante todo este módulo se realizaron ejercicios de AC, con herramientas como Voyant Tools, que permitió tener algunos elementos de análisis sobre la bibliografía seleccionada.

Y la relación de los documentos con el proyecto de investigación.

Como herramientas para el AC, es importante definir claramente las categorías a utilizar y con la claridad y la rigurosidad necesarias para el proyecto. Es necesario tener un buen libro de códigos y pienso que el artículo de Saldana (2016), da una buena introducción al tema y a los esquemas de codificación. Son herramientas para aprender y profundizar par a generar mejores resultados en el proyecto doctoral.

Se necesita tener buena literatura acorde con el proyecto y una forma también de analizar esta literatura es con el AC, y los resultados que se obtienen con herramientas cono Voyant Tools.

Para la bibliografía sistematizada de Codina (2018) es necesario tener también buenas fuentes, un libro de códigos y las categorías bien definidas y procurar realizar con CAT este análisis de fiabilidad que a su vez permite ver resultados que ayudan a tener mejor bibliografía y mejores contenidos para la investigación.

Dadas las restricciones de tiempo y tamaño de la muestra los resultados del ejercicio no fueron los mejores, sin embargo, la experiencia de utilizar la herramienta y los conceptos del proceso de codificación y fiabilidad me dejan un aprendizaje para capitalizar y continuar profundizando en el tema y poder realizar un buen AC, para la investigación doctoral.

10    REFERENCIAS

Codina, Lluís. (2018), Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunica1980)ción Social. Departamento de Comunicación. Universitat Pompeu Fabra,

Krippendorff K. (1980) “Metodologia de analisis de contenido, teoria y práctica”, Paidos, Barcelona.  Capítulos 1 y 2.

Lombard, M., Snyder-Duch, J., & Bracken, C. C. (2002). Content Analysis in Mass Communication: Assessment and Reporting of Intercoder Reliability. Human Communication Research, 28(4), 587–604.

Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Universidad de Sevilla.

Saldana, J. (2016). The Coding Manual for. Qualitative Researchers (3rd ed.) London, UK: Sage. Chapter 1. Introduction to code and coding.

10.1    Otras Referencias

GUIAS de las herramientas compartidas para este Módulo. CAT – Voyant Tools

Análisis de contenido en comunicación masiva – MMCORRAL

Maria Mercedes Corral Strassmann – Mayo 18 de 2020

Un método de análisis de contenido es apropiado en particular cuando se están estudiando las comunicaciones masivas, el análisis de mensajes. Así mismo es fundamental en investigación, y principalmente en comunicación, donde los investigadores son muy rigurosos en el uso de este método. Si “el código no es confiable no se puede confiar en el análisis” Singletary, 1993, p. 294).

Análisis de contenido y la importancia del inter-codificador confiable:

Los codificadores, se basan e análisis de correlación, índices, entre otros, lo más importante es el acuerdo a que llegan y este es necesario puesto que el punto de medición, se toma cuando se tiene el acuerdo y adicionalmente se asignan las mismas mediciones a cada objeto. Si no se logra establecer es posible que la interpretación de los datos no sea válida.

Medición de la confiabilidad del inter-codificador:

La confiabilidad del inter-codificador se evalúa haciendo que dos o más codificadores categoricen las unidades (programas, escenas, artículos, historias, palabras, etc.), y luego usan estas categorizaciones para calcular un índice numérico del alcance del acuerdo

entre los codificadores. Existen variaciones de como este proceso se puede realizar, pero mínimo el investigador debe crear un conjunto de unidades para poder probar la fiabilidad.

Con los datos de codificación en mano, el investigador calcula e informa uno o más índices de fiabilidad

Acuerdo del porcentaje:

Este es el porcentaje de las decisiones realizadas por pares de codificadores en las cuáles están de acuerdo.

Método de Holsti

Holsti en (1969) propone una variación en el acuerdo del índice del porcentaje, con dos codificadores evaluando las mismas unidades para una prueba de confiabilidad, es igual al definido, sin embargo, cambia en situaciones en las que los codificadores evalúan diferentes unidades.  El resultado a menudo se calcula no para una variable única, pero a través de un conjunto de variables, esperando que las variables sean confiables.

Pi (TT) de Scott

Un índice que explica el acuerdo es el Pi de Scott (1955)., difiere del porcentaje de acuerdo con el método de Holsti, este índice tiene en cuenta el número de categorías, así como la distribución de valores entre ellas, se basa en estos valores en lugar del resultado del acuerdo entre los codificadores.

Kappa de Cohen (k)

El índice kappa de Cohen (1960,1968) también representa un acuerdo casual, usando la misma fórmula conceptual que la Pi de Scott. la posibilidad en este caso se calcula en base a los “marginales multiplicativos”, en lugar de los aditivos, lo que genera el efecto de contar las diferencias en la distribución de valores a través de las categorías para diferentes codificadores.

Alpha de Krippendorf (a): (1980)

Este permite cualquier número de codificadores y está explícitamente diseñado para ser utilizado para variables a diferentes niveles de medición desde nominal hasta una razón. El mayor inconveniente de su el uso ha sido la complejidad y la dificultad resultante de los cálculos “a mano”,

especialmente para intervalos y variables de nivel de razón.

Determinando un nivel aceptable de confiabilidad:

Adicionalmente a escoger el índice de confiabilidad apropiado, del inter-codificador, otra dificultad es determinar qué se constituye como un nivel aceptable de fiabilidad, tampoco se tienen estándares establecidos para esto.

Existen algunas herramientas para calcular la fiabilidad del inter-codificador, no cuentan con muchas herramientas para esta tarea y normalmente tienen que hacer los cálculos manualmente. Agunas personas han desarrollado algunas macros que pueden ser usadas para automatizar los cálculos. Otros han desarrollado software localmente, pero no se tiene una disponibilidad completa de estas y tampoco son sencillas de usar.

Fiabilidad del inter-codificador en reportes recientes de investigación en comunicación. -Una estudio:

Pregunta de investigación,

¿Qué tan adecuada y consistente es actualmente la fiabilidad del inte-rcodificador evaluada e informada en investigación en comunicación masiva?

Método:

Para responder a la pregunta de investigación, se realizó un análisis de contenido de informes de investigación en comunicación en los que el análisis de contenido fue el principal método de investigación.

Muestra,

Se tomaron todos los artículos indexados en “Communication Abstracts” para el año 1994-1998, y para esto una de las palabras claves fue,” análisis de contenido”, Communication Abstracts es un índice de las publicaciones en literatura de Comunicación sobre 75 revistas. Finalmente se tuvo una muestra de 200 artículos y se codificaron las 22 variables definidas, donde se tienen entre otras, método de estudio, medio de análisis, tipo de contenido, numero de codificadores, fiabilidad discutida, método de fiabilidad. Los autores probaron una versión inicial del instrumento, se utilizaron como métodos Acuerdo de porcentaje, Pi de Scott, Kappa de Cohen, Alpha de Krippendorf, la segunda versión bta de prueba fue con el software PRAM (Program for Reliability Assessment with Multiple-coders, Skymeg Software, 2002).

Resultados:

Los resultados para cada variable se presentan se ven en detalle en la Tabla 2 (12-13), . Solamente el 69% de los informes de investigación (n = 137) contenían cualquier informe de fiabilidad entre codificadores. De ese subconjunto, el número medio de oraciones en el texto y las notas al pie que se dedicaron a la discusión y al informe de fiabilidad fue 4.5 (SD = 4), solo el 6% de estos artículos incluía una tabla que contenía resultados de confiabilidad, y menos de la mitad (45%) de los artículos incluyeron una cita relacionada con fiabilidad del inter-codificador, el nivel de fiabilidad más bajo fue de 0.40, y el mínimo aceptable era de .075 (SD=0.26).

Conclusión:

El análisis de contenido ha demostrado que aun se tienen problemas en la evaluación y reporte de la fiabilidad de los inter-codificadores, por lo tanto, basado en la revisión de literatura y en los resultados de este estudio, las siguientes normas y directrices se proponen para este proceso:

  1. Calcular y reportar la fiabilidad del inter-codificador
  2. Seleccionar índices apropiados
  3. Tener herramientas que permitan realizar los cálculos.
  4. Seleccionar los mínimos niveles de fiabilidad aceptables.
  5. Evaluar informalmente durante el entrenamiento.
  6. Evaluar formalmente en un piloto de prueba.
  7. Evaluar formalmente con la codificación de una muestra completa.
  8. Seleccionar y seguir un procedimiento apropiado para incorporar la codificación de la muestra de confiabilidad en la codificación de la muestra completa.
  9. No se deben hacer ninguna de las siguientes: usar solo porcentajes para el cálculo, usar sobreposicion e la codificación, entre otros.
  10. Informe la confiabilidad del inter-codificador de manera cuidadosa, clara y detallada en todos reportes de investigación, y provea una información mínima como: tamaño y método usado para crear la muestra fiable, la relación de la muestra de fiabilidad con la muestra completa, el número de codificadores y si se incluyen los investigadores, índices seleccionados, horas de entrenamiento requeridas, entre otras.

Referencias

Lombard, M., Snyder-Duch, J., & Bracken, C. C. (2002). Content Analysis in Mass Communication: Assessment and Reporting of Intercoder Reliability. Human Communication Research, 28(4), 587–604.