Trabajo Final : Revisión Bibliográfica Sistematizada

El objetivo de este breve post es aclarar las diferencias entre el trabajo final de la asignatura y el reporte del mini-proyecto del módulo 4. Son productos diferentes y cada uno cuenta con su respectivo porcentaje en la evaluación. Aunque con el grupo se acordó que el mini-proyecto del módulo 4 podía ser planteado como una parte del trabajo final, nunca se contempló que lo reemplazaría.

El trabajo final es una bibliografía sistematizada sobre métodos de investigación afines a su tema de tesis. Este trabajo tiene un valor de 20% y aunque lo habíamos pensado en dos componentes, uno de presentación y otro escrito, decidimos dejarlo solo escrito por cuestiones de tiempo. Desde Enero les compartí el artículo de Codina para que pudieran ver como elaborar este tipo de producto de análisis e inclusive lo mencioné en el post que hice sobre Zotero en Enero 31.

El reporte del mini-proyecto está relacionado con el trabajo final pero no son equivalentes. No reemplaza el trabajo final. En nuestras conversaciones decidimos que el mini-proyecto de módulo 4 podría ser sobre análisis de contenido de una muestra más pequeña de la del trabajo final. Así mismo, este reporte estaría relacionado con las actividades desarrolladas durante las sesiones de laboratorio del módulo 4. En el post introductorio al módulo 4 se aclaran los componentes de este mini-poryecto, su reporte y su porcentaje (10%).

Una de las grandes diferencias entre los dos productos radica en el número de unidades de análisis consultadas y analizadas. Para el mini-proyecto decidimos que solo analizarían 5, mientras que para el trabajo final deben como mínimo elaborar un análisis de 10 unidades. Ojalá entre 10-20 unidades. Además, en la parte metodológica, deben utilizar el sistema de fichas de análisis propuesto por Codina. Esta metodología es diferente a la del mini-proyecto del módulo 4 porque implica un análisis que no es computacional ni cuantitativo. La idea es que ustedes elaboren esas fichas y luego, utilizándolas puedan elaborar una síntesis, analizando los diferentes artículos o capítulos de libro. Esa síntesis, es diferente a la del mini-proyecto, ya que contiene una muestra más grande, y así mismo, un análisis que no es el de contenido cuantitativo, sino por el contrario, un análisis más crítico y reflexivo. Si bien existen componentes del mini-proyecto que pueden utilizar a la hora de presentar la revisión bibliográfica sistematizada, es importante que en la parte de síntesis y conclusiones, elaboren con profundidad su análisis crítico y reflexivo, y en la parte de metodología incluyan ejemplos de las fichas de revisión bibliográfica que analizaron.

Mini-proyecto Módulo 4 – Análisis de Contenido Bibliografía: Amanda Castiblanco

INTRODUCCIÓN

La siguiente revisión bibliográfica corresponde a una muestra de artículos cuya relación se encuentra fijada en el desarrollo del primer capítulo de contextualización de mi investigación doctoral. Como lo enuncia Codina, (2018) esta revisión corresponde a un trabajo obligado de verificación de toda investigación doctoral, de allí el interés y necesidad de realización.

La característica fundamental de esta herramienta se divide en dos momentos, el primero, corresponde a la “revisión” de documentos, cuya rigurosidad debe ser reflejada en el tipo de artículos, que esperan ser de peso científico, bien sea por el autor o por el tema centralizado. A partir de dicha escogencia, llegamos al segundo momento, la interpretación. Esta interpretación es guiada bajo diversas herramientas de análisis de contenido que permiten encontrar la filiación de los documentos, y as u vez contrarrestar su veracidad y pertinencia. En suma, como lo referencia el autor, “una revisión bibliográfica equivale a una investigación en la cual los documentos seleccionados son los datos primarios y su agregación/interpretación el método de análisis”.

Para llevar a cabo esa revisión bibliográfica, se presentan cuatro fases expuestos por Codina (2018) citando a Grant, Booth, (2009) que se suman a la factibilidad y precisión en las investigaciones realizadas desde las ciencias sociales: 1) Búsqueda, esta permite reflexionar sobre las fuentes utilizadas, cuya rigurosidad debe ser representada en el siguiente item. 2.) Evaluación. Este paso se realiza para corroborar o preguntar acerca de la fiabilidad del artículo, el cual dependerá, no solo de sus resultados, sino de cumplir con las características que demuestren metodología, proceso y conclusiones. 3) Análisis y 4) Síntesis dependerán de las formas de interacción metodológica y discursiva de cada investigación.

Finalmente, se muestra como esta revisión permite evidenciar el avance en la investigación del tema revisado y a partir de allí, poder plantear desde lo personal de la investigación, formas alternas de abordaje del tema en cuestión.

PROBLEMA

Para plantear la revisión bibliográfica, planteo, mi problema de investigación en la primera fase de reconocimiento del territorio, esta se comprende de diferentes tipos históricos, cuyo enfoque es llevado a la construcción desde época prehispánica – hasta cimentación barrial de Bogotá. Para ello fue necesario recurrir a diversos libros de naturaleza antigua, que pudieran dar cuenta de la conformación del suelo bogotano. Sin embargo, existen algunos que tal vez no son reconocidos exteriormente bajo la lógica de rigurosidad científica, pero manejan una discursividad, relación e investigación profunda del contexto.

Por lo anterior y teniendo en cuenta el corpus manejado en este ejercicio, se plantea la siguiente pregunta: ¿Cómo se desarrolla la urbanidad en Bogotá, teniendo en cuenta la calidad histórica prehispánica que la conforma? Y por otro lado ¿influye la división de suelo, en épocas precoloniales, en la conformación actual de la ciudad?

MÉTODOS

Los métodos utilizados para la realización del ejercicio, corresponde a:

  1. Trabajar sobre la base del framework SALSA, presentado por Codina (2018)

A parir de allí se realizan una serie de procedimientos, que descubren cada uno de los métodos del framework

  1. Se realiza una escogencia preliminar de los textos a trabajar, que cumplan con las características de los textos científicos. Para ello, se recurre a un primer acercamiento a la organización de información por medio del esquema de para cada documento, presentados por Codina (2018), mostrado aquí como sistema de codificación.
  2. A partir de las fichas, simplificar la información a: título, autor, filiación del autor, resumen, palabras clave y conclusiones. Esta información convertirla a texto plano txt, para poder continuar en el sistema de codificación.
  3. Creación de libro de códigos sugeridos en clase de métodos, el cual debe responder a lo extraído de las fichas. El filtro se realizó en 4 categorías, con 3 o 4 variables.
  4. Utilización del software Coding Analysis Toolkit, CAT, para codificar los elementos mencionados y a partir de allí descubrir la fiabilidad del a información sugerida. El trabajo con esta herramienta es mancomunado con un par codificador, que a su vez cumple ayuda a descubrir los niveles de fiabilidad de los documentos a codificar.
  5. Análisis de la información sustraída de las gráficas que arroja el software CAT
  6. Síntesis

MUESTRA

La siguiente muestra corresponde a libros y artículos de investigación documental, cuya característica se retoma desde la contextualización histórica del territorio cundinamarqués, asentado en Bogotá, empezando desde las características simbólicas y significativas que lo conforman. Por lo que este primer acercamiento presenta características exclusivas de las comunidades Muiscas del territorio en la historia.

Gamboa, J. A. (2005). Los caciques muiscas y la transición al régimen colonial en el altiplano cundiboyacense durante el siglo XVI (1537–1560). Bogotá, Centro de estudios Hispanoamericanos–Fundación Carolina-ICANH.

Friede, J. U. A. N. (1961). La breve y trágica historia de Bogotá, la indígena. Revista Colombiana de Antropología10, 149.

Caldera, L. A. B. (2008). Concepción sagrada de la naturaleza en la mítica muisca. Franciscanum. Revista de las ciencias del espíritu50(149), 151-176.

Torres Carrillo, A. (2013). La ciudad en la sombra: Barrios y luchas populares en Bogotá 1950–1977. Universidad Piloto de Colombia.

Gamboa, J. A. (2015). Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista. Diálogos en patrimonio cultural I. Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista, 11-33.

Torres, C. A., & Alberto, C. (2009). Ciudad informal colombiana. Barrios construidos por la gente. Santa Fe de Bogotá. Editorial Unal.

Mejía, Germán. (2000). Los años del cambio, Historia urbana de Bogotá 1820-1910. Bogotá, Centro editorial javeriano. 

Zambrano Pantoja, F. R. (2004). Historia de la localidad de Tunjuelito : el poblamiento del Valle Medio del Río Tunjuelo. Alcaldía Mayor de Bogotá. 

Dolmatoff, Gerardo (1989). Colombia indígena, periodo prehispánico. En J. Jaramillo (Ed), Nueva historia de Colombia (pp. 27 – 68). Bogotá, Colombia: Planeta Colombiana Editorial. 

Ocampo, Javier (1989). El proceso político, militar y social de la independencia. En Manual de Historia de Colombia. Tommo II, Bogotá, Instituto Colombiano de Cultura. Pp  9 – 64

Palacio, Germán. (Ed.). Naturaleza en Disputa: Ensayos de Historia Ambiental de Colombia 1850 – 1995. Universidad Nacional de Colombia, Facultad de Derecho Ciencias Políticas y Sociales, Departamento de Biología, IDEA, IMANI. ICAH, COLCIENCIAS, Telar de Agua. Bogotá. 2001

LIBRO DE CÓDIGOS

Para la revisión bibliográfica se presentó el siguiente libro de códigos:

Figura 1. Libro de códigos

SISTEMA DE CODIFICACIÓN

El sistema de codificación utilizado fue las fichas de Codina, las cuales, permiten completar información relevante de cada uno de los artículos revisados, condensándolos en cuestiones específicas. Estas responden a por un lado resumir, por otro, reflexionar acerca del aporte y alcance de los artículos en el proyecto y por último a concluir y organizar el documento. A continuación, presento el modelo de ficha utilizado:

FICHA CODINA

  • REFLEXIÓN DE FIABILIDAD

Acorde a los resúmenes realizados de las siguientes lecturas, se realiza la reflexión de fiabilidad. A continuación los documentos:

  1. Gamboa, J. A. (2005). Los caciques muiscas y la transición al régimen colonial en el altiplano cundiboyacense durante el siglo XVI (1537–1560). Bogotá, Centro de estudios Hispanoamericanos–Fundación Carolina-ICANH.
  2. Friede, J. U. A. N. (1961). La breve y trágica historia de Bogotá, la indígena. Revista Colombiana de Antropología10, 149.
  3. Caldera, L. A. B. (2008). Concepción sagrada de la naturaleza en la mítica muisca. Franciscanum. Revista de las ciencias del espíritu50(149), 151-176.
  4. Torres Carrillo, A. (2013). La ciudad en la sombra: Barrios y luchas populares en Bogotá 1950–1977. Universidad Piloto de Colombia.
  5. Gamboa, J. A. (2015). Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista. Diálogos en patrimonio cultural I. Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista, 11-33.

Realizada la evaluación con el par codificador, en este caso, María Mercedes Corral, se pueden atisbar conclusiones, aunque no las esperadas, de fiabilidad respecto a la organización de la información. A continuación, se muestra diagramado la frecuencia de los códigos que responden a las categorías y variables mostradas en cada uno de los artículos resumidos

GRÁFICA DE BARRAS

Figura 2. Gráfico de barras CAT

En este caso, al ser enunciados, en la mayoría de los casos, los artículos desde un lugar histórico de Bogotá evidencian, grado medio de fiabilidad, según los índices de medida de Kappa y Krippendorff Alpha. Para el caso de índice Kappa, Montoro & Muñoz (2005) advierten que bajo parámetros de medida superado el 0,4, se puede considerar un Índice de medida moderado, lo cual es mostrado en la siguiente tabla

Code amanda20 20 Mariamercedes 2020 Exact Match Overlap Kappa Kappa (inc. Overlap)
Campo de estudio m Antropología 2 0 0 0 0.00 0.00
Campo de estudio – Historia 5 4 4 0 0.80 0.80
Campo de estudio – Urbanismo 1 2 1 0 0.50 0.50
Desarrollo – Bogotá 2 3 2 0 0.67 0.67
Desarrollo – Desarrollo urbano 1 1 1 0 1.00 1.00
Desarrollo – Historia Colonial 3 4 3 0 0.75 0.75
Desarrollo – Historia prehispánica 3 0 0 0 0.00 0.00
Metodología – Etnografía 0 2 0 0 0.00 0.00
MetodologíaInvestigación acción 1 0 0 0 0.00 0.00
Metodología – Investigación documental 5 3 3 0 0.60 0.60
Totals 23 19 14 0 0.43 0.43

Figura 3. índice de medición Kappa

Code amanda2020 mariamercedes2020 Total Count Alpha Value
Campo de estudio – Antropología 2 0 2 NaN
Campo de estudio – Historia 5 4 9 -0.083
Campo de estudio – Urbanismo 1 2 3 0.571
Desarrollo – Bogotá 2 3 5 0.620
Desarrollo – Desarrollo urbano 1 1 2 1.000
Desarrollo – Historia Colonial 3 4 7 0.540
Desarrollo – Historia prehispánica 3 0 3 NaN
Metodología – Etnografía 0 2 2 NaN
Metodología – Investigación acción 1 0 1 NaN
Metodología – Investigación documental 5 3 8 -0.208
Totals: 23 19 42 NaN

Figura 4. índice de medición Krippendorff Alpha

En ese mismo orden, la siguiente gráfica de círculo, muestra la claridad metodológica que  se descubre en investigación documental; esta misma, se encuentra fuertemente enlazada con el campo de Historia, el cual también es descubierto en codificación con par. Sin embargo, al ver el tipo de historia presentado no hay encuentro de codificación. Según el diagrama y los cuadros de análisis, se puede entender que los artículos están enfocados a discutir la historia colonial de Bogotá; esto no es cierto, la discusión es dada frente a las dinámicas, características y fundamentación de la cultura Muisca, desde la prehispanidad, lo que tal vez por el lenguaje, se puede confundir con la historia colonial, al tratar ambas al Muisca como sujeto operante en ambos lugares de la historia.

GRÁFICA DE CÍRCULO

Figura 5. Gráfico de códigos individuales

Respecto a la última gráfica, se puede comparar bajo el coeficiente kappa las medidas que surgen del acuerdo entre las evaluadoras, en este caso el puntaje abstraído de la gráfica corresponde a 0,45, lo que ubica el ejercicio en un nivel moderado de fiabilidad.

  • CONCLUSIONES PRELIMINARES

Este ejercicio permite visibilizar, de otras formas, la estructura de los documentos y la búsqueda consciente, específica, rigurosa y científica de los mismos. Si bien, cada uno de los investigadores posee conocimiento del tema investigado, debe categorizar dicha información, de modo tal que quien observe su investigación, sea su línea o no temática, pueda inferir la lógica de la misma y a su vez ahondar en ella con un nivel más amplio de fiabilidad.

En este orden, lo que permite el uso de la herramienta en este momento, justo de inicio en el proceso investigativo doctoral, será de reflexión. Esta se puede guiar hacia que tipo de documentos se están enlazando como cuerpo estructural del documento de investigación, lo que a su vez, lleva a la evaluación de los artículos, fidelidad de la información, búsqueda objetiva de características y valores de los mismos. Finalmente, esta evaluación puede lograr la conformación de una lógica estructura, por un lado, y por otro, coadyuvar en la conformación epistémica que arroje índices de fiabilidad efectivos.

REFERENCIAS

  • Codina, Lluís. (2018), Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunica1980)ción Social. Departamento de Comunicación. Universitat Pompeu Fabra,
  • Krippendorff K. (1980) “Metodologia de analisis de contenido, teoria y práctica”, Paidos, Barcelona.  Capítulos 1 y 2.
  • Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Universidad de Sevilla

 

Mini-Proyecto Análisis de Contenido – MMCORRAL

 

PROYECTO DE ANALISIS DE CONTENIDO

MÉTODOS AVANZADOS DE INVESTIGACIÓN

                                                                       Profesor Andrés Lombana.

Maria Mercedes Corral Strassmann

Mayo 24 de 2020

  1.  

CONTENIDO

PROYECTO DE ANALISIS DE CONTENIDO.. 1

1       INTRODUCCION.. 3

2       PROBLEMA. 3

3       MÉTODOS. 4

4       MUESTRA. 5

5       CATEGORÍAS DE ANÁLISIS. 6

6       SISTEMA DE CODIFICACIÓN – ESQUEMA DE CODIFICACIÓN: 8

7       APLICACIÓN DEL SISTEMA DE CODIFICACIÓN.. 9

8       REFLEXIÓN SOBRE FIABILIDAD Y VERACIDAD DEL SISTEMA DE CODIFICADO.. 9

9       CONCLUSIONES. 13

10         REFERENCIAS. 14

10.1          Otras Referencias. 14

 

Maria Mercedes Corral Strassmann

Mayo 24 2020

1         INTRODUCCION

El análisis de contenido (AC), es una de las técnicas de investigación más importantes de las ciencias sociales, y permite entender los datos como fenómenos simbólicos más que situaciones físicas, así mismo el AC va más allá de las nociones del contenido como objeto de estudio. de acuerdo con Krippendorff (1980). El AC permite crear técnicas y utilizar herramientas para su análisis de resultados y es una manera de empezar con el análisis de la literatura referente al problema de investigación doctoral.

Los métodos tradicionales de análisis de contenido, y de búsqueda y análisis de bibliografía siguen siendo usados, pero sin embargo tienen limitaciones y tienden a ser subjetivos en algunos aspectos. La metodología sugerida por Codina (2018), para la revisión bibliográfica sistematizada, y la utilización de herramientas como el CAT, (Coding Analysis Toolkit), ayudan a generar mejores resultados.

Para este mini-proyecto se tiene como objetivo realizar un análisis de contenido muy resumido de algunas fuentes ya seleccionadas, crear el libro de códigos y la categorización y posteriormente utilizando CAT, realizar un análisis de fiabilidad con un proceso de revisión de pares generando índices Krippendorff Alpha y índice Kappa, descritos y presentados en Saldana (2016). para un posterior análisis de resultados.

2         PROBLEMA

De acuerdo con mi investigación doctoral la cual tiene como propósito. Formular una propuesta de modelo que emerja de las diversas formas en que las universidades colombianas se relacionan con su entorno, que permita valorar las actividades en la heterogeneidad de sus impactos, beneficiarios y características. Y como presunta de investigación se han planteado las siguientes:

•           ¿Cuáles son las actividades que se realizan desde la universidad y generan impacto en sus entornos geográficos, sociales, urbanísticos, ambientales, culturales?

•           ¿Cómo se pueden caracterizar estas actividades, de manera que sea posible realizar una valoración de estas?

•           ¿Como se pueden determinar los beneficios que pueden generar a la sociedad las diferentes actividades que se realizan desde la universidad?

Para comenzar el proceso de investigación con estos planteamientos se, inició una búsqueda de fuentes relacionando las actividades que realizan las universidades y cómo éstas se relacionan con su entorno de desempeño, académico y no académico.

Se inició con una búsqueda en Web of Science por considerar que es una base de datos apropiada, que adicionalmente da garantía, rigor y transparencia (Codina, 2018) y es una de las bases de datos más importantes.

3         MÉTODOS

Para este proceso de AC, se va a utilizar el modelo de Codina (2018), que comprende las cuatro etapas:

  • Búsqueda
  • Evaluación
  • Análisis y
  • Síntesis

      Fuente Codina (2018)

Como lo mencioné para la búsqueda inicial se realizó un proceso en Web of Science teniendo como palabras claves de la búsqueda:

  • Indicadores,
  • Universidad
  • Institución de Educación Superior
  • Gobierno
  • Industria
  • Tercera misión
  • Extensión

Con base en esta información y teniendo algunos criterios de selección como el número de veces que es nombrado el autor, el tema. Se realizó una codificación y se generó una clasificación y creación de algunas categorías; y para este mini-proyecto se consideraron estas categorías ya definidas y se elaboró el libro de códigos.

Posteriormente utilizando CAT se realizó un análisis de fiabilidad con CAT, y para este análisis se tomaron como datos de referencia de las fuentes:

  • Título
  • Autor
  • Filiación
  • Abstract
  • Palabras Claves
  • Conclusión

Este análisis en CAT se realizó con un par, y se generaron los resultados que se analizarán al final de informe.

4         MUESTRA

Para el mini-proyecto se tomó la siguiente muestra de documentos, relacionados con el proyecto de investigación:

  • Arcila, R.E, La Universidad en América Latina, Universidad Autónoma Latioamericana,  UNAULA www.unaula.edu.co
  • Arocena R & Sutz Judith, Universidades para el Desarrollo, Universidad de la República de Uruguay, Foro abierto de Ciencia para Latinoamérica y Caribe, UNESCO, (2016)
  • Etzkowitz H (a),  Leydesdorff  L,(b) The dynamics of innovation: from National Systems and ‘‘Mode 2’’ to a Triple Helix of university–industry–government relations,   (a) Science Policy Institute, Social Science DiÍision, State UniÍersity of New York, (b)  Department of Science and Technology Dynamics, Nieuwe Achtergracht 166, 1018 WV Amsterdam, Netherlands, Research Policy 29 _2000. 109–123
  • Gibbons, M., Limoges, C., Nowotny, H., Schwartzman, S., Seot, P. Trow, M, The New Production of Knowledge, The Dynamics of Science and Research in Contemporary Societies, SAGE Publications, London. (2002),
  • Göransson, B. & Brundenius, C., Universities in Transition: 3 The Changing Role and Challenges for Academic Institutions, International Development Research Centre, Part 1, (2011)
  • Leydesdorff, L, The mutual information of university-industry-government relations: An indicator of the Triple Helix dynamics, Jointly published by Akadémiai Kiadó, Budapest Scientometrics, and Kluwer Academic Publishers, Dordrecht Vol. 58, No. 2 (2003) 445.467, (2003),
  • Leydesdorff, L, & Meyer, M. Triple Helix indicators of knowledge-based innovation systems, Introduction to the special issue,  Research Policy Vol. 35 (2006)
  • Leydesdorff, L (reprint author), Triple Helix indicators of knowledge-based innovation systems – Introduction to the special issue, Univ Amsterdam, ASCoR, Kloveniersburgwal 48, NL-1012 CX Amsterdam, Netherlands,  (2006)
  • Leydesdorff, L (reprint author), Measuring the knowledge base of an economy in terms of  triple-helix relations among ‘technology, organization, and territory’, Univ Amsterdam,  Amsterdam Sch Commun Res, Kloveniersburgwal 48, NL-1012 CX Amsterdam, Netherlands
  • Melo-Becerra, L.A.,  (2), L.A., Ramos-Forero, J.E., (3),  Hernández-Santamaría, P.O., (4), La educación superior en Colombia: situación actual y análisis de eficiencia, Revista Desarrollo y Sociedad, Banco de la República. Universidad de los Andes, (2017)
  • Park, HW, Yeungnam Univ, Gyongsan, South Corea, Hong, HD, A comparison of the knowledge-based innovation systems in the economies of South Korea and the Netherlands using Triple Helix indicators,  Kan Wong National University, South Korea, KangWon National University, South Korea, Leydesdorff, L, University of Amsterdam, The Netherlands, Scientometrics (2005; forthcoming), (2005),

5         CATEGORÍAS DE ANÁLISIS

Se definieron como categorías:

  • Tipo de documento
  • Tipo de investigación
  • Modelos teóricos
  • Relacionamiento con externos
  • Relacionamiento interno de la Universidad
  • Metodología

Libro de códigos – Mini proyecto – Tema Universidades y su relación con su entorno de desempeño

Tipo de Documento – Tipo de fuente

  1. Articulo – Artículo publicado
  2. Libro –
  3. Tesis – Investigación sobre el tema

Tipo de investigación – Investigación realizada con la fuente

  1. Documental – Documentos teóricos sobre el tema
  2. Investigación acción – Proyectos realizados con la investigación
  3. Investigación creación – Investigación que ha generado algún producto nuevo

Modelos teóricos que han cambiado la forma de producir conocimiento en las Instituciones de Educación Superior – IES

  1. Innovación – Modelo de innovación se puede definir como un proceso colectivo el cual reúne varios actores, como universidades, centros de investigación, entidades de gobierno, y organizaciones del sector productivo.
  2. Triple hélice – Modelo que une Gobierno- Industria – Universidad en relación con la innovación.
  3. Modo 2 – Modelo que trata con las condiciones de la organización y la producción de conocimiento en donde éste es, ante todo, transdisciplinario; es decir que conjuga perspectivas disciplinares alrededor de un mismo objetivo
  4. Triangulo de Sábato -Tres agentes El estado – la infraestructura científica y tecnológica – y el sector productivo

Relacionamiento con externos – Enfoque de la fuente hacia sectores externos a las IES y a la Educación

  1. Industry – Industrias que desarrollan conocimiento para la relación con las IES
  2. Government – El estado y su relación con las IES
  3. Spillovers – Startups desde las IES
  4. Entrepeneurship – Emprendimientos apoyados por las IES
  5. Commercialization – Comercio, consultorías proyectos para las IES

Relacionamiento interno de la Universidad – Enfoque de la fuente en el marco de la IES o Universidad

  1. Research – investigación y generación de conocimiento
  2. Collaboration – Proyecto de colaboración con otras instancias, el gobierno, otro país, la industria.
  3. Higher Education – Proyecto de educación, alrededor de actualización.
  4. Extension service – El servicio de la Universidad alrededor de la sociedad.

Metodología -metodología usada en la fuente

  • Cualitativa
  • Cuantitativa
  • Mixta
  • Probabilidades

6         SISTEMA DE CODIFICACIÓN – ESQUEMA DE CODIFICACIÓN:

De estas categorías definidas se tomatón las siguientes para el mini-proyecto, para ser utilizadas en el análisis de fiabilidad.

  Tabla 1 – Categorías

Y los códigos correspondientes a estas categorías son:

Tabla 2 – Códigos

7         APLICACIÓN DEL SISTEMA DE CODIFICACIÓN

Se conformó un corpus con 6 documentos relacionados con mi proyecto de investigación. Tomando para cada artículo la información descrita en el capítulo 3.

Se crearon en CAT, los data sets correspondientes, y se tomó como codificación el resumen de la Tabla 2.

Con un par codificador se desarrolló la actividad de codificado, sobre el data set.

Finalizado el proceso de codificación con el par, se generaron los siguientes resultados.

8         REFLEXIÓN SOBRE FIABILIDAD Y VERACIDAD DEL SISTEMA DE CODIFICADO

Una vez se realiza el proceso de codificado con el par, se obtienen los siguientes resultados,

Dadas las características de la prueba de fiabilidad realizada, con un corpus pequeño, y una codificación también resumida, se puede ver que los resultados no son exactamente los esperados.

La información de cada artículo era limitada y en mi concepto faltan códigos que ayuden a aclarar la clasificación. Adicionalmente es posible que las categorías no estén claramente definidas y tampoco ayuda a a evaluación, del par.

Respecto a la frecuencia de códigos asignados, también se puede ver si las categorías y los códigos realmente están bien definidos. O si es necesario revisar nuevamente la codificación. Adicionalmente sería necesario un segundo nivel de codificación y revisión de resultados.

Los análisis comparativos y los índices resultantes se muestran a continuación:

En índice Kappa, arroja un resultado de 0.38, el cual realmente es bajo para un análisis de fiabilidad, este resultado de acuerdo con Montoro & Muñoz (2005) , un valor ente 0.2 y 0.4 se considera un grado de acuerdo bajo para el índice Kappa.

Aunque se puede observar que hay algunos índices parciales de 1.00, que es muy bueno de acuerdo con Montoro & Muñoz (2005) sin embargo varios niveles parciales también están en 0.0, que es realmente muy malo.

De acuerdo con Lombard (2002), que, en su artículo, aclara que adicionalmente a la definición apropiada de códigos, para el análisis de fiabilidad, se debe determinar el nivel de aceptación del resultado. Un porcentaje de aceptación del análisis de fiabilidad no debe ser inferior al 80%, por lo tanto en este caso el análisis debería repetirse y revisar previamente, tanto categorías como códigos y la información de lamuestra.

Tabla 3 – Índice Kappa

El índice Krippendorff Alpha, generó como resultado la siguiente tabla., en la cual se observan algunos acuerdos, pero también algunas discrepancias en el tipo de investigación lo cual llevaría a una revisión de códigos también. Adicionalmente la claridad de las categorías y la muestra seleccionada.  Lombard (2002), plantea que este índice Krippendorff – alpha, sirve para análisis de varios codificadores y permite variables en diferentes niveles de medición desde  nominales hasta ratios, los cuál puede ayudar en el análisis.

9         CONCLUSIONES

Es claro que el AC, como técnica de investigación en ciencias sociales, es un mecanismo fuerte para lograr buenos resultados.

Durante todo este módulo se realizaron ejercicios de AC, con herramientas como Voyant Tools, que permitió tener algunos elementos de análisis sobre la bibliografía seleccionada.

Y la relación de los documentos con el proyecto de investigación.

Como herramientas para el AC, es importante definir claramente las categorías a utilizar y con la claridad y la rigurosidad necesarias para el proyecto. Es necesario tener un buen libro de códigos y pienso que el artículo de Saldana (2016), da una buena introducción al tema y a los esquemas de codificación. Son herramientas para aprender y profundizar par a generar mejores resultados en el proyecto doctoral.

Se necesita tener buena literatura acorde con el proyecto y una forma también de analizar esta literatura es con el AC, y los resultados que se obtienen con herramientas cono Voyant Tools.

Para la bibliografía sistematizada de Codina (2018) es necesario tener también buenas fuentes, un libro de códigos y las categorías bien definidas y procurar realizar con CAT este análisis de fiabilidad que a su vez permite ver resultados que ayudan a tener mejor bibliografía y mejores contenidos para la investigación.

Dadas las restricciones de tiempo y tamaño de la muestra los resultados del ejercicio no fueron los mejores, sin embargo, la experiencia de utilizar la herramienta y los conceptos del proceso de codificación y fiabilidad me dejan un aprendizaje para capitalizar y continuar profundizando en el tema y poder realizar un buen AC, para la investigación doctoral.

10    REFERENCIAS

Codina, Lluís. (2018), Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunica1980)ción Social. Departamento de Comunicación. Universitat Pompeu Fabra,

Krippendorff K. (1980) “Metodologia de analisis de contenido, teoria y práctica”, Paidos, Barcelona.  Capítulos 1 y 2.

Lombard, M., Snyder-Duch, J., & Bracken, C. C. (2002). Content Analysis in Mass Communication: Assessment and Reporting of Intercoder Reliability. Human Communication Research, 28(4), 587–604.

Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Universidad de Sevilla.

Saldana, J. (2016). The Coding Manual for. Qualitative Researchers (3rd ed.) London, UK: Sage. Chapter 1. Introduction to code and coding.

10.1    Otras Referencias

GUIAS de las herramientas compartidas para este Módulo. CAT – Voyant Tools

Mini-Proyecto Modulo 4. Análisis de Contenido – Felipe Navarrete

Por: Luis Felipe Navarrete Echeverría

INTRODUCCIÓN

Este mini-proyecto da cuenta de un recorrido por procedimientos y acercamientos que reflejan y amplían la reflexión respecto al uso potencial del análisis de contenido en el diseño y desarrollo de proyectos de investigación. Para este caso, se conecta directamente con el interés de explorar perspectivas en torno a la sistematización bibliográfica.

Se busca profundizar en las “arquitecturas, estructuras, componentes básicos y funcionamiento” (Igartua, 2006:181. Citado en: Zunino, 2015:114) que desde esta metodología puede establecerse de las estructuras del contenido.  Esta labor se enfoca, como se mencionaba, en una exploración de estas posibilidades en relación a la revisión bibliográfica de tipo sistemático y sistematizada (Codina 2018), desde el cual se demarca su aplicación a un proyecto de interés investigativo particular que gira en torno a la cultura política en Colombia, construida y dinamizada desde medios de comunicación.

En términos de Codina (2018) la revisión sistematizada de bibliografía es un punto fundamental para el diseño de proyectos de investigación, que permiten concretar los grados de rigurosidad, dibujar un panorama sobre el estado de la cuestión (Zunino, 2015)  y que parte de una selección inicial de documentos vinculados a la temática de interés que permite el paso a la interpretación de éstos.   Este procedimiento requiere una secuencialidad, tal como se expresa en la figura 1, que va demarcando una pauta inicial de búsqueda general, pero que se va concretando con el establecimiento de criterios o frameworks (Figura 2) que permiten filtrar y concretar el proceso de selección (y de análisis)

La sistematización de las fuentes bibliográficas permiten plantear un panorama de lo que se ha avanzado en el estudio de la temátcia, pero también, en esta misma ruta, y revisando los vacios o limitaciones; puntos que se establecen como caminos o posibilidades hacia las cuales podemso conducir nuestras investigacionesd, desde la necesidad de generar nuevas dimensiones de conocimiento.   Desde allí propicia la definción o establecimiento de fases de acción, la sistematicidad del trabajo, su transparencia (Codina, 2018) y la apertura de la revisión de la pregunta y los objetivos con los cuales proyectamos nuestras investigaciones.

PROBLEMA

¿Cuál es la cultura política que se construye en Colombia a partir del uso de medios y plataformas comunicativas?  Con esta pregunta general se concretaba una temática para mi investigación.   Su abordaje requería de un claro diseño de la estructura, que establecía como exigencia inicial el abordaje de investigaciones que permitiese detallar que hallazgos, conclusiones, metodologías, resultados y demás se ha generado a partir de temáticas asociadas la pregunta formulada.   En esta medida se empezaron a consultar fuentes que precisaban concretar espacios y criterios de búsqueda, que permitieran ir refinando las posibilidades de fuentes y empezar desde allí el análisis. 

Inicialmente se exploran revistas indexadas y documentos en la plataforma Google Academics, que si bien, fijaban un escenario posible y legitimado para la indagación, exigían situar categorías concretas de búsqueda y la definición de criterios que se proyectasen hacia el análisis de estos.     El análisis de contenido, en términos metodológicos, aparece como un insumo clave en la resolución de esta segunda exigencia; si ya se estaba formando la base documental: ¿cómo catalogarla? ¿Cómo establecer conceptos o elementos comunes que permitan fijar las convergencias y divergencias de estos estudios?

MÉTODOS

Para el desarrollo de este mini-proyecto se apela al uso del análisis de contenido en tanto permite la caracterización de elementos textuales que pueden ser medidos cuantitativamente (Krippendorff, 2013) y se implementó el uso de dos herramientas digitales: Coding Analysis Toolkit (CAT) para la validación de la codificación en aras de garantizar la fiabilidad del diseño propuesto para el análisis y Voyant Tools, herramienta que permitió detallar algunos elementos exploratorios para la caracterización de los textos (frecuencias de palabras, redes entre otros) para fijar componentes que hicieron extensivo el análisis. Para la sistematización de la muestra se diseñó una matriz con categorías de análisis, que dieron paso al diseño de un Codebook.

MUESTRA

A continuación se presentan algunos de los trabajos recopilados para la sistematización bibliográfica. Revisando revistas académicas indexadas y con el uso de Google Academics se utilizan criterios de búsqueda como: cultura política, redes sociales digitales, ciberactivismo, ciberpolítica, ciberciudadanias, política y medios de comunicación. Los trabajos que están subrayados fueron los utilizados para el sistema de codificación.

Título trabajo Autor-es
La política y lo político en Twitter: Análisis del discurso de los candidatos presidenciales de Colombia (2018) Luis Eduardo Ruano, Juan Camilo López, y Jonathan Felipe Mosquera
Ciberdemocracia: Comunicación política en Twitter (2017) Liliana María Gómez Céspedes
Twitter y la ciberpolítica (2012) Fernández, Carmen
Twitter como plataforma de los alcaldes para la comunicación pública (2015) García Beatriz, López María, Fernández José Gabriel
Enmarcamiento cognitivo de la cultura política. Un análisis desde las redes sociales en Internet (Twitter) (2013) Sánchez; López, Wilson; Barreto, Idaly
Líderes latinoamericanos en Twitter. Viejas costumbres para nuevos medios en tiempos de crisis política (2015) F Segado-Boj, J Díaz-Campo, B Lloves-Sobrado
La interacción política en Twitter: el caso de @ppopular y @ahorapodemos durante la campaña para las Elecciones Europeas de 2014 Ricardo Zugasti Azagra
Elecciones Europeas 2014: Viralidad de los mensajes en Twitter Redes. (2015) Congosto ML
Cultura Política: El estado del Arte Contemporáneo (2002) Leticia Heras Gómez
El discurso político mediado por ordenadores: análisis del discurso en las cuentas del presidente Juna Manuel Santos y del ex presidente Álvaro Uribe Vélez en la red social digital Twitter (2016) Urrea, María, Paéz, Julián, Cuellar Arlex.
Estructura y contenido de la twitteresfera política colombiana durante las  elecciones legislativas de 2014 (2016) Paéz Julián
La política y lo político en Twitter: Análisis del discurso de los candidatos presidenciales de Colombia (2018) Luis Eduardo Ruano , Juan Camilo López , y Jonathan Felipe Mosquera
¡Twitteo, luego existo! Un análisis de las dinámicas de competencia electoral de los candidatos a la Presidencia de Colombia 2018 en Twitter (2019) Luciana C. Manfredi, Juan Manuel González Sánchez, David Biojó Fajardo
Una aproximación a la cultura política colombiana desde el debate contemporáneo de la democracia (2012) Juan David Cárdenas Ruiz1  
Un análisis contemporáneo del Twitter (2011) Beatriz Fainholc
Esbozos históricos sobre cultura política y formación ciudadana en Colombia: actores, sujetos y escenarios (2008) Martha Cecilia Herrera  
Predicción electoral usando un modelo híbrido basado en el análisis sentimental: elecciones presidenciales de Colombia (2019) Mauro Callejas-Cuervo, Manuel A. Vélez-Guerrero
Dimensión política del discurso en los candidatos presidenciales de Colombia: un análisis de la red social Twitter  (2018) Luis Eduardo Ruano, Juan Camilo López, Jonathan Mosquera
Conmigo o contra mí: análisis de la concordancia y estrategias temáticas del Centro Democrático en Twitter (2018) Cifuentes, Carlos Felipe; Pino, Juan Federico
Ciudadanía, Cultura Política y Reforma del Estado en América Latina (2002) Assies Willem, Calderón Marco, Salman Ton
Elector, resistencia
y desafección política. (2003) Mora H, Juan, Escobar C, Claudio.
Twitter como instrumento de comunicación política en campaña: Elecciones Generales 2011 (2012) López Abellán, M
Los mecanismos de lo político en las redes sociales de internet. (2013) Torres L.
Redes sociales y política 2.0: Presencia en Twitter de los candidatos a las elecciones andaluzas de 2012 (2012) Martínez M
Twitter y la comunicación política. El profesional de la información (2017) Campos, E
Política 2.0: el uso de las redes sociales en la política argentina (2012) Domínguez, N
Estrategia y publicidad electoral: los spots de campaña en Andalucía 2008 y 2012 (2017) García, G
Medios de Comunicación, democracia y cultura política (2011) Jorge, J. y Miró, M
Mucho Ciberactivismo… pocos votos. Antanas Mockus y el Partido Verde  colombiano (2011) Rincón, O
La comunicación contemporánea en el circuito de la opinión pública y las relaciones de poder en red. (2015) Trillos, J.
Ciberciudadanías, cultura política y creatividad social (2013) Almendra, V. et al 
Redes sociales, poder y participación ciudadana. (2014) Ayala, T
Los límites de la “ciberpolítica”. Internet y movimientos sociales (2014) Cruz, E
La política en internet ¿de la mediatización a la convergencia digital (2014) Espino, G
La cultura y la política en la cultura política.   (2017) Eufracio, J
Deliberación: actividad política en internet y redes sociales en Colombia (2014) Orozco, M. & Ortiz, A

Tabla 1: Muestra de artículos para la revisión bibliográfica. Fuente: El autor.

CATEGORIAS DE ANÁLISIS Y SISTEMA DE CODIFICACIÓN

Este sistema de codificación surge de la matriz (tabla 2) construida para la caracterización sistematizada del contenido de los artículos de investigación, desde las cuales se definen las categorías de análisis.

Título  
Autores  
Referencia Bibliográfica Editorial, Año, Institución (es), Ciudad, País. (vínculo si está online)
Tipo de Documento Tesis de maestría/doctorado Investigación Pública/Privada Libro Ensayo Informe Institucional / Organización / Entidad
Campo de Estudio Ciencia Políticas, Ciencias de la Información, Filosofía.
Línea de Investigación  
Palabras Clave  
Abstract  
Contenido Estructura
Fuentes Principales Autores citados o que se referencias con más constancia en el desarrollo temático. (citas textuales APA)
Objetivos General y Específicos
Metodología Enfoque. Tipo de Investigación. Instrumentos. Población / muestra
Limitaciones ¿Qué aspectos no se contemplaron en el estudio? (Vacíos) ¿Qué observaciones de cuidado o sugerencias realizan los investigadores? ¿Qué fallos presenta el estudio?
Resultados  
Conclusiones Conclusión central ¿Cómo da respuesta a la pregunta problema o cómo cumple el objetivo)
Tablas Gráficos o Registros Importantes Datos  
Temática Cultura Política, análisis de medios, Retórica, Persuasión, Ciberactivismo
Bibliografía  
Comentarios Del Investigador que realiza el resumen

Tabla 2. Matriz para sistematización contenido artículos de investigación. Fuente: El autor

Para la actividad de clasificación se diseñan las siguientes matrices (tabla 3 y 4): en la primera se detallan los códigos y las categorías representadas y en la segunda, la matriz para la ejecución del procedimiento.

Tabla 3. Codebook. Diseño: El autor

Tabla 4. Matriz para la codificación. Fuente: El autor.

REFLEXIÓN SOBRE LA FIABILIDAD O VERACIDAD DEL SISTEMA DE CODIFICADO:

Para garantizar la fiabilidad requerida en las codificaciones exigidas en el análisis de contenido (Krippendorff, 2013) se realizó un trabajo de verificación en el cual se hacía un cruce de caracterizaciones para establecer el grado de acuerdo independiente que se establecía sobe las variables, pero sobre todo, sobre su aplicación.  En esta etapa se utilizó la herramienta CAT, en la cual se organización las bases de datos (Tabla 5), los códigos y sus descriptores.

Tabla 5 Caracterización bases de datos (con 5 muestras) en la herramienta CAT.

Luego de la codificación aplicada por los investigadores, la herramienta permitió hacer el registro de la comparación estándar (Tabla 6) y determinar elementos de fiabilidad para el aseguramiento de la calidad del proceso.   Se evidencia desde el índice Kappa una frecuencia de coincidencia alta en relación al campo de estudio y el método (análisis de contenido), las dos por encima de 0.70 que contrasta con los demás índices, que se encausan a un nivel bajo de coincidencia general.

Tabla 6. Comparación registro de los investigadores, con el uso de la herramienta CAT

Posteriormente se aplica el indice alfa de Krippendorff (tabla 7), que arroja los siguientes indices:

Tabla 7: Índice Krippendorff aplicado a la muestra. Herramienta CAT

Desde este mecanismo se observan discrepancias que requieren de una nueva evaluación en la codificación, dado los niveles de discrepancia. Ubicándonos en algunas consideraciones establecidas por Krippendorff pueden deberse a las características de muestra y a los posibles sesgos desde la mirada de los investigadores. Cabe mencionar la relevancia de la claridad en la codificación, pues esto permite mayor refinamiento en el proceso, así como mitigar la posibilidad de la ambigüedad o confusiones que pueden remitir a amplios márgenes de incompatibilidad en los procedimientos realizados por los investigadores.  Además de este ejercicio que resulta crucial, debe revisarse preliminarmente la constitución de la muestra, para ver qué tan potentes resultan las categorías de análisis, pues, en el caso de este trabajo, la falta de elementos de contenido, podía también invisibilizar aspectos que se tenían en cuenta en el Codebook (como la metodología  que no siempre se señala en los Abstract)

CONCLUSIONES PRELIMINARES

En la consolidación de la base bibliográfica se hizo un tejido desde las etapas definidas por Grant y Booth: búsqueda, evaluación, análisis y síntesis (2009, en: Codina: 2018) dentro de la acción sistematizada que propende por la estructura que aparece en la figura 3, que exigía ir determinando criterios de inclusión-exclusión, pero además, la concreción de categorías de análisis que permitieran sus sistematización; proceso que se hizo posible gracias a la matriz de caracterización y después a la codificación realizada.

En una primera etapa del análisis de contenido, usando la herramienta Voyan Tool, se realizó una caracterización que permitió ir concretando frecuencia de conceptos y las articulaciones que se presenciaban en la estructura de los textos. Allí fue posible ver cómo en la muestra de esta primera fase marca unas tendencias en la cuales los conceptos de cultura política cobran protagonismo y se asocian a conceptos como tweets, discursos, políticos y al concepto comunicación (figura 4) que permite ir marcando unas categorías a modo de etiquetas, desde las cuales se puede pensar la pertinencia y exigencias de la codificación planteada así como horizontes articuladores de convergencias.

La imagen de frecuencia deja ver, en el costado derecho, la necesidad de profundizar la limpieza y filtreo  de la caracterización que permita evitar el   conteo y registro de palabras que no resultan relevantes para el estudio (como preposiciones, por ejemplo). En ese ejercicio, el mapa de relaciones (Figura 5) permitió encontrar un primer dato relevante desde esta caracterización, en torno a las conclusiones de los estudios y es la relación entre cultura política y el concepto de democracia:

Luego de esta fase exploratoria, se realizó una revisión desde esta misma herramienta para establecer, en términos generales, las frecuencias de la muestra seleccionada para el presente mini-proyecto, en la cual se trabajó sobre: títulos de artículos, Abstract, conclusiones, desde las cuales es relevante señalar un patrón y es situar la red social digital Twitter en el cual se concentran los estudios de cultura política (Figura 5) al momento de situar un medio que dinamiza estas prácticas y como el estudio de la cultura política en esta red se articula con elementos como la opinión pública, la ciberpolítica, democracia, mensajes.  (Figura 6) lo cual orienta sobre la predominancia de campos disciplinares de estudio y teorías desde las cuales se ejecutan estos abordajes,

.

La herramienta Voyant Tool permite también una caracterización general de la muestra establecida para el estudio (que, cabe recordar, resulta pequeña para una determinación profunda de estos indicadores), destacando las frecuencias de encuentro de conceptos (Figura 7) que demarcaron los 5 textos (que contenían 1.341 palabras en total y ubican un cruce de 590 concordancias, además de sus extensiones), así como la fijación de categorías que empiezan a determinar unos marcos comunes clarificado por la cuantificación de las relaciones (figura 8)

Situados luego, en el plano de la codificación, la herramienta CAT permite hacer una comparación de los grados de coincidencia en el procedimiento (Figura 8), lo cual permite caracterizar un amplio grado de correspondencia alrededor del método (análisis de contenido) y sobre la ubicación de las muestras (Twitter con un grado de 92%)

Si bien la codificación precisa de una revisión para concatenar en un mejor nivel los índices de fiabilidad, si permite establecer algunas consideraciones a partir de su caracterización y sistematización con el Codebook: los estudios sobre cultura política se centran en ubicar muestras en Twitter, desatacan el ejercicio de la participación a través de esta plataforma, vinculando conceptos como Ciberdemocracia, ciberpolítica, ciberciudadanias. Además la orientación de estos trabajos a preferir el análisis de contenido. Los estudios codificados se sitúan en las ciencias de la comunicación y la información.

Estas consideraciones marcan una ruta de interpretación y revitalizan el análisis de contenido como una metodología que permite la caracterización de componentes sustanciales, los índices de fiabilidad deben revisarse así como explorar con muestras mucho más grandes que permitan una representatividad de las caracterizaciones realizadas.  Consientes de esto, debe señalarse que, desde la sistematización bibliográfica y la  codificación realizada en la ruta metodológica del análisis de contenido se estableen insumos que orientan una construcción coherente de un proyecto de investigación, en tanto permite afianzar la correspondencia entre los objetivos, las categorías propuestas y su reflexión-evaluación desde los elementos hallados en los antecedentes bibliográficos.

REFERENCIAS

Codina, L (2018) Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra,

Krippendorff, K. (2013) Content Analysis. An Introduction to Its Methodology(3rd ed). California, CA: Sage Publications.

Zunino, E. (2015). El análisis de Contenido. Revisión a partir de un estudio de caso.Viator; Lugar: San Salvador de Jujuy; Año: 2015 vol. 0 p. 107 – 128

Mini-proyecto Módulo 4 – Henry Romero

Análisis de Contenido para la sistematización de la literatura en un proyecto de investigación doctoral

  1. Introducción

El análisis de contenido de la literatura a emplear en un proyecto de tesis es indispensable para adelantar un proceso riguroso desde las primeras etapas, pues nos ayudará a direccionar los esfuerzos solo en las fuentes de mayor pertinencia y validez de acuerdo al problema planteado en la investigación y a los objetivos que, derivados de este, se planteen.

En este orden es que la necesidad de hacer una revisión de la literatura se convierte en una tarea prioritaria, siendo fundamental para determinar las formas en que el problema a investigar, ha sido investigado y a través de qué referentes y métodos, así como los resultados a los que se ha llegado por la comunidad científica particular.

Los métodos de análisis y exploración de la bibliografía tradicionales e intuitivos que normalmente dependían de la experticia del investigador, implicaban un riesgo alto de desconocer literatura relacionada e importante para las investigaciones.  Este miniproyecto se ha orientado a la luz de la pregunta de ¿Cómo hacer una evaluación de la bibliografía a través del modelo sugerido por Codina (2018) en el contexto de un proyecto de tesis en el Doctorado de comunicación, lenguajes e información de la Universidad Javeriana? Con este modelo se busca allegar la precisión requerida aun cuando hay limitaciones de pares, tiempo, recursos bibliográficos, etc. Aun así, el miniproyecto ilustra el proceso estructural del modelo sugerido por Codina (2018), el que se ha instrumentalizado con el apoyo del software Coding Analysis Toolkit para allegar los coeficientes de Krippendorff´s Alpha y Kappa y se ha hecho una evaluación de resultados.

2. Problema

El problema que ha orientado el miniproyecto se desprende de la necesidad de cómo conformar un corpus bibliográfico cuyo contenido sea pertinente y válido para un problema y unos objetivos en el marco de un proyecto de tesis en un programa de doctorado. Dadas las fallas que se pueden dar en los estados de arte o en las revisiones de la bibliografía, el análisis de contenido direcciona sistemática y rigurosamente el trabajo de selección de fuentes.

Fuente: (Codina, 2018)

Como vemos en la figura anterior, para que una investigación esté centrada en la problemática propuesta, la revisión de la literatura no puede ser superficial, requiere un análisis de contenido que permita en gran medida ubicar al investigador en la literatura. Por tanto, las preguntas de cuáles son las fuentes, teorías, conceptos clave; los puntos de vista políticos manifiestos en las fuentes, los fundamentos epistemológicos y ontológicos, así como en general los principales debates que se han suscitado alrededor del problema, son de la mayor relevancia a la hora de comenzar a hacer una investigación. 

Por esta razón se ha sintetizado el problema en la siguiente formulación ¿Cómo hacer una evaluación de la bibliografía a través del modelo sugerido por Codina (2018) en el contexto de un proyecto de tesis en el Doctorado de comunicación, lenguajes e información de la Universidad Javeriana? Con esta pregunta guiaremos el trabajo subsiguiente.

3. Métodos

Principalmente en este miniproyecto se ha seguido el modelo sugerido por Codina (2018) el cual se propone en las siguientes etapas:

Fuente: (Codina, 2018)

Sobre la base de una muestra de fuentes se hizo un análisis de contenido de las mismas siguiendo la estructura antes citada. Se procedió principalmente a la conformación de un corpus de datos de dichas fuentes con las categorías de interés codificadas.

3.1. Búsqueda

La información por cada unidad bibliográfica se sintetizó en:

Título de la fuente

Autores

Filiación

Abstract

Palabras Clave

Conclusiones

Se elaboró un libro de códigos para las categorías de análisis en el cual se codificó el tipo de metodología, el enfoque teórico, el énfasis disciplinar y el tipo de investigación.

Sobre una muestra bibliográfica de diecinueve artículos de revistas o journals relacionados con el problema y previamente seleccionados por la reputación de las publicaciones y autores representativos, así como la vigencia y actualidad de las publicaciones, se seleccionó una submuestra de cinco para hacer las pruebas de validez con el software Coding Analysis Toolkit en el cual participaron dos pares evaluadores. Con estas dos evaluaciones se corrieron las pruebas de comparación estándar Kappa y Alpha de Krippendorff.

a. Muestra

La muestra se seleccionó obedeciendo a un criterio no probabilístico, opinático y por conveniencia, en tanto los artículos obedecen a que se han publicado en las revistas internacionales más representativas y autores también representativos, con un direccionamiento explícito hacia términos claves relacionados con la problemática del proyecto de investigación. Del miso modo obedece a que el acceso a las fuentes lo ha posibilitado.

Esta es la muestra de textos que corresponden a artículos de journals y revistas arbitradas relacionados con los ejes teóricos y categoriales del proyecto. La submuestra de 5 artículos sobre la cual se hizo el ejercicio de evaluación del contenido por pares está subrayada o destacada:

  1. Bayou, M., Reinstein, A., & Williams, P. (2011). To tell the truth: A discussion of issues concerning truth and ethics in accounting. Accounting, Organizations and Society(36), 109-124.
  2. Beyer, A., Cohen, D., Lys, T., & Walther, B. (2010). The financial reporting environment: review of the recent literture. Journal of Accounting and Economics(50), 296-343.
  3. Blankespoor, E. (2018). Firm communication and investor response: A framework and discussion integrating social media. Accounting, Organizations and Society, 80-87.
  4. Chapman, K. & Miller, G. (2019). Investor Relations and Information Assimilation. Accounting Review, 94(2), 105-131.
  5. Cooper, D., & Sherer, M. (1984). The Value of Corporate Accounting Reports: Arguments for a Political Economy of Accounting. Accounting Organizations and Society, 9(3/4), 207-232.
  6. Hales, J., Kuang, X., & Venkataraman, S. (2011). Who Believes the Hype? An Experimental Examination of How Language Affects Investor judgments. Journal of accounting research, 223-255.
  7. Henry, E., & Peytcheva, M. (2018). Earnings-Announcement Narrative and Investor Judgment. Accounting Horizons, 32(3), 123-143. doi:10.2308/acch-52121
  8. Hobson, J., Mayew, W., & Venkatachalam, M. (2012). Analyzing Speech to Detect Financial Misreporting. Journal of Accounting Research, 349-392.
  9. Lassou, P. J., & Hopper, T. (2016). Government accounting reform in an ex-French African colony: The political economy of neocolonialism. Critical perspectives on Accounting(36), 39-57. doi:10.1016/j.cpa.2015.10.006
  10. Lee, J. (2016). Can Investors Detect Managers’ Lack of Spontaneity? Adherence to Predetermined Scripts during Earnings Conference Calls. Accounting Review, 19(1), 229-250. doi:10.2308/accr-51135
  11. Macintosh, N. (2005). Annual Reports in an Ideological Role: A Critical Theory Analysis. En N. Macintosh, & T. Hopper, Accounting, the social and the political: classics, contemporary and beyond (págs. 163-171). Amsterdam: Elsevier.
  12. Mattessich, R. (2003). Accounting representation and the onion model of reality: A comparison of Baudrillard’s orders of simulacra and his hyperreality. Accounting, Organizations and Society, 28(5), 443–470.
  13. Mattessich, R. (2009). FASB and Social Reality – An Alternate Realist View. Accounting and the Public Interest, 39-64.
  14. McKernan, J. (2007). Objectivity in accounting. Accounting organizations and Society(32), 155-180.
  15. Richardson, A. (1987). Accounting as a legitimating institution. Accounting Organizations and Society, 12(4), 341 – 355.
  16. Shapiro, B. (1997). Objetivity, Relativism and truth in external financial reporting: what´s really at stake in the dispute? Accounting. organizations and society, 22(2), 165-185.
  17. Thomson, K., & Jones, J. (2016). Colonials in Camouflage: Metonymy, mimicry and the reproduction of the colonial order in the age of diversity. Critical Perspectives on Accounting(35), 58-75.
  18. Tinker, A. (1980). Towards a Political Economy of Accounting: An Empirical Illustration of the Cambridge Controversies. Accounting Organizations and Society, 5(1), 147-160.
  19. Tinker, A., Merino, B., & Neimark, M. (1982). The normative origins of positive theories: Ideology and accounting thought. Accounting, Organizations and Society, 7(2), 167-200.

3.2. Evaluación

a. Categorías de análisis (libro de códigos)

Las categorías de análisis definidas para observar en la muestra se centraron en aspectos derivados del contenido pero que pueden ser comprendidas como de carácter general y facilita identificar tendencias y ubicación teórico – metodológica principalmente. En este sentido se ha considerado oportuno identificar las siguientes categorías de análisis consignadas en un libro de códigos así:

Como se puede observar se definió un criterio de análisis el cual se expresa en unas categorías  codificadas y sobre las que se proporcionan claves para comprender el significado de las mismas a través de una breve descripción. Esto con el propósito que el par evaluador conozca con precisión el contenido a evaluar y su interpretación del corpus sea muy precisa.

b. Sistema de codificación – esquema de codificación

A continuación, se presenta el sistema de codificación que preliminarmente se estableció para cada categoría a través de la siguiente matriz.

c. Aplicación del sistema de codificación

El sistema de codificación que se predefinió, luego se configuró en el software Coding Analysis Toolkit para que los pares evaluadores pudieran hacer la colaboración en la evaluación, como se aprecia en la siguiente tabla.

El corpus conformado con la muestra se configuró de acuerdo a los requisitos de formato del software y esta es la síntesis de la submuestra alojada en la aplicación:

En la gráfica pie se evidencia la aplicación del sistema de códigos a la muestra y es posible identificar las frecuencias de cada una de las categorías de análisis.

 

3.3. Análisis

a. Reflexión sobre fiabilidad y veracidad del sistema de codificado

Con el contenido del dataset y la aplicación del libro de códigos se dispuso de dos evaluadores y una vez hecha la evaluación, se procedió a correr las comparaciones estándar que facilita Codindg Analysis Toolkit para validar el sistema de codificado. Dadas las limitaciones del ejercicio la reflexión alrededor de tales resultados es parcial.

En primer lugar, podemos afirmar que el contenido del dataset no necesariamente contiene toda la información que pudiese con precisión permitir la identificación de las categorías de análisis. Sin embargo, se parte del supuesto que los evaluadores son exertos y conocedores de gran parte de estas categorías y fácilmente pueden hacer deducciones apoyadas en juicios bien fundados por la experticia que tienen.

Una vez corridas las pruebas de análisis se obtuvo lo siguiente:

Para la prueba Kappa

De acuerdo a Landis y Koch (1977) citado por Montoro & Muñoz (2005, pág. 591) el coeficiente Kappa cuando alcanza el acuerdo perfecto alcanza el valor 1, pero cuando las posibilidades de acuerdo coinciden con las obtenidas al azar, este coeficiente tiende al valor 0. Los intervalos de la bondad del acuerdo aparecen reflejados en la siguiente tabla:

En este orden y de acuerdo a los resultados obtenidos en términos generales el coeficiente es de 0,22 lo que nos muestra un grado de acuerdo bajo según Cohen lo que en efecto se puede ver en las escasas coincidencias en la evaluación. Aun así, al ser solo dos evaluadores hay categorías en las que se ha coincidido significativamente las cuales se ven en la tabla como en los casos de enfoque teórico positivista con 0,67 Bueno, enfoque teórico de economía política con 0,5 moderado, enfoque teórico teoría critica 0,5 moderado y énfasis disciplinar 0,5 moderado. En estas categorías hay una convergencia y acuerdo, pero en términos generales el coeficiente es bajo lo que mina la validez del código empleado.

Sorprende que en las evaluaciones particulares hay una diferencia muy marcada en la categoría contable financiera, sorprende, porque todo el corpus es disciplinalmente consistente con lo contable financiero.

Desde el coeficiente Alpha de Krippendorff (2004, pág. 222), En su forma más general α  es definido por:

α = 1 – Do / Dⅇ

Donde (Do) es la medida del desacuerdo observado y (De) es la medida del desacuerdo que puede ser esperado cuando prevalece el azar. Esta definición revela dos puntos de referencia que son esenciales para cualquier medida de confiabilidad: cuando se observa que el acuerdo es perfecto y el desacuerdo está, por lo tanto, ausente, (Do) = 0 y α = 1, lo que indica confiabilidad perfecta.

Sobre esta base, la interpretación de los resultados apunta a que no hay acuerdo en términos generales en las evaluaciones de los dos pares. En términos particulares hay categorías que tienen valores positivos mayores al 50% que en comparación con el coeficiente Kappa van en la misma dirección de mostrar niveles de acuerdo moderado.

En contraste son significativos los valores negativos en algunas categorías de análisis que según Krippendorff (2004) obedecen a dos razones. Por un lado, al tamaño de la muestra, es decir cuando es muy pequeña. Sin embargo, al encontrar valores positivos en muchas categorías no parecería ser la razón el tamaño muestral. Por el otro lado indica Krippendorff que estos valores negativos pueden igualmente obedecer a desacuerdos sistemáticos y creo que este es el caso. La razón de esta apreciación es porque las categorías en donde el Alpha es negativo, son las categorías en las que las diferencias de estimación de los evaluadores son más grandes. De este modo es un problema de desacuerdo sistemático por diferencias en las interpretaciones de las categorías presentes en el corpus, que pueden obedecer a un conocimiento más profundo de uno de los evaluadores en tanto es la bibliografía que ha configurado y explorado a mayor profundidad y también puede obedecer a que por disposición de tiempo la evaluación se hizo superficialmente. Otra explicación final pudo provocarse por la insuficiencia del contenido en el corpus para haber deducido de este las categorías de análisis, aunque por ser estas tan genéricas su efecto realmente puede ser poco significativo.

3.4. Síntesis

Como síntesis del corpus los resultados ayudan a interpretar que hay una presencia importante del enfoque positivista; no obstante, hay acuerdo también en los enfoques críticos y de economía política. Esta característica del corpus lo hace equilibrado en cuanto a enfoques teóricos. Desde el punto de vista de énfasis disciplinar hay problemas importantes de acuerdo en lo contable financiero que revelan una anomalía en la evaluación. Algo similar ocurre en el desacuerdo en los métodos mixtos que puede obedecer a insuficiencia de información en la estructuración del corpus.  En la misma dirección se presentan las diferencias en las apreciaciones sobre la naturaleza explicativa de los papers. Estos resultados de desacuerdo alertan a que el ejercicio de evaluación sea mas dedicado y minucioso.

4. Conclusiones

El análisis de contenido como metodología a emplear en las etapas tempranas de la exploración de la literatura, en el marco del desarrollo de tesis es de relevancia para validar un corpus bibliográfico y reducir los riesgos de omitir información, precisar pertinencia del mismo frente a los fines perseguidos por la investigación. Es una herramienta muy útil a la hora de usarla para la revisión de la literatura puede fácilmente servir de base para hacer clasificaciones de acuerdo a categorías predefinidas de interés.

El uso de libros de código es un instrumento formal que requiere cuidado en su elaboración, en especial en la claridad de significado y sentido de cada una de las categorías de análisis que son la base interpretativa de colaboraciones de evaluadores. De su adecuada elaboración depende en gran medida una evaluación apropiada.

La asistencia del software Coding Analysis Toolkit es fundamental para los indicadores estadísticos y los coeficientes de validez Kappa y Alpha de Kripendorf de las evaluaciones que, para los no especialistas puede resultar un ejercicio complejo de desarrollar. El acuerdo o desacuerdo en las evaluaciones de pares proporciona información importante para hacer ajustes al corpus bibliográfico.

El caso particular que se analizó, ilustra muy bien la dinámica del análisis de contenido para estos propósitos, y permitió evidenciar la necesidad de hacer análisis sistemáticos de la literatura para dar rigor a las investigaciones de nivel de maestría y doctorado. Aun siendo un caso ilustrativo y con fines de aprendizaje, las limitaciones derivadas de ello, así como la disposición de mayores tiempos, colaboraciones y tamaño muestral, los resultados se han podido interpretar sobre los coeficientes ya referidos y han reflejado una confirmación de lo que hipotéticamente se puedo intuir tanto con la muestra como con las evaluaciones, en el sentido de no tener una evaluación con coeficientes más convergentes gracias a las limitaciones de tiempo principalmente.

5. Referencias

Codina, L. (2018). Revisiones bibliográficas sistematizadas. Barcelona: Universitat Pompeu Fabra.


Krippendorff, K. (2004). Analysis of Content: a introduction to its methodology. Thousands Oakes: SEGE.


Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Cities in competition. XV Spanish-Portuguese Meeting of Scientific Management (págs. 587 -598). Sevilla: Universidad de Sevilla.

https://cat.texifter.com/

Análisis de contenido en comunicación masiva – MMCORRAL

Maria Mercedes Corral Strassmann – Mayo 18 de 2020

Un método de análisis de contenido es apropiado en particular cuando se están estudiando las comunicaciones masivas, el análisis de mensajes. Así mismo es fundamental en investigación, y principalmente en comunicación, donde los investigadores son muy rigurosos en el uso de este método. Si “el código no es confiable no se puede confiar en el análisis” Singletary, 1993, p. 294).

Análisis de contenido y la importancia del inter-codificador confiable:

Los codificadores, se basan e análisis de correlación, índices, entre otros, lo más importante es el acuerdo a que llegan y este es necesario puesto que el punto de medición, se toma cuando se tiene el acuerdo y adicionalmente se asignan las mismas mediciones a cada objeto. Si no se logra establecer es posible que la interpretación de los datos no sea válida.

Medición de la confiabilidad del inter-codificador:

La confiabilidad del inter-codificador se evalúa haciendo que dos o más codificadores categoricen las unidades (programas, escenas, artículos, historias, palabras, etc.), y luego usan estas categorizaciones para calcular un índice numérico del alcance del acuerdo

entre los codificadores. Existen variaciones de como este proceso se puede realizar, pero mínimo el investigador debe crear un conjunto de unidades para poder probar la fiabilidad.

Con los datos de codificación en mano, el investigador calcula e informa uno o más índices de fiabilidad

Acuerdo del porcentaje:

Este es el porcentaje de las decisiones realizadas por pares de codificadores en las cuáles están de acuerdo.

Método de Holsti

Holsti en (1969) propone una variación en el acuerdo del índice del porcentaje, con dos codificadores evaluando las mismas unidades para una prueba de confiabilidad, es igual al definido, sin embargo, cambia en situaciones en las que los codificadores evalúan diferentes unidades.  El resultado a menudo se calcula no para una variable única, pero a través de un conjunto de variables, esperando que las variables sean confiables.

Pi (TT) de Scott

Un índice que explica el acuerdo es el Pi de Scott (1955)., difiere del porcentaje de acuerdo con el método de Holsti, este índice tiene en cuenta el número de categorías, así como la distribución de valores entre ellas, se basa en estos valores en lugar del resultado del acuerdo entre los codificadores.

Kappa de Cohen (k)

El índice kappa de Cohen (1960,1968) también representa un acuerdo casual, usando la misma fórmula conceptual que la Pi de Scott. la posibilidad en este caso se calcula en base a los “marginales multiplicativos”, en lugar de los aditivos, lo que genera el efecto de contar las diferencias en la distribución de valores a través de las categorías para diferentes codificadores.

Alpha de Krippendorf (a): (1980)

Este permite cualquier número de codificadores y está explícitamente diseñado para ser utilizado para variables a diferentes niveles de medición desde nominal hasta una razón. El mayor inconveniente de su el uso ha sido la complejidad y la dificultad resultante de los cálculos “a mano”,

especialmente para intervalos y variables de nivel de razón.

Determinando un nivel aceptable de confiabilidad:

Adicionalmente a escoger el índice de confiabilidad apropiado, del inter-codificador, otra dificultad es determinar qué se constituye como un nivel aceptable de fiabilidad, tampoco se tienen estándares establecidos para esto.

Existen algunas herramientas para calcular la fiabilidad del inter-codificador, no cuentan con muchas herramientas para esta tarea y normalmente tienen que hacer los cálculos manualmente. Agunas personas han desarrollado algunas macros que pueden ser usadas para automatizar los cálculos. Otros han desarrollado software localmente, pero no se tiene una disponibilidad completa de estas y tampoco son sencillas de usar.

Fiabilidad del inter-codificador en reportes recientes de investigación en comunicación. -Una estudio:

Pregunta de investigación,

¿Qué tan adecuada y consistente es actualmente la fiabilidad del inte-rcodificador evaluada e informada en investigación en comunicación masiva?

Método:

Para responder a la pregunta de investigación, se realizó un análisis de contenido de informes de investigación en comunicación en los que el análisis de contenido fue el principal método de investigación.

Muestra,

Se tomaron todos los artículos indexados en “Communication Abstracts” para el año 1994-1998, y para esto una de las palabras claves fue,” análisis de contenido”, Communication Abstracts es un índice de las publicaciones en literatura de Comunicación sobre 75 revistas. Finalmente se tuvo una muestra de 200 artículos y se codificaron las 22 variables definidas, donde se tienen entre otras, método de estudio, medio de análisis, tipo de contenido, numero de codificadores, fiabilidad discutida, método de fiabilidad. Los autores probaron una versión inicial del instrumento, se utilizaron como métodos Acuerdo de porcentaje, Pi de Scott, Kappa de Cohen, Alpha de Krippendorf, la segunda versión bta de prueba fue con el software PRAM (Program for Reliability Assessment with Multiple-coders, Skymeg Software, 2002).

Resultados:

Los resultados para cada variable se presentan se ven en detalle en la Tabla 2 (12-13), . Solamente el 69% de los informes de investigación (n = 137) contenían cualquier informe de fiabilidad entre codificadores. De ese subconjunto, el número medio de oraciones en el texto y las notas al pie que se dedicaron a la discusión y al informe de fiabilidad fue 4.5 (SD = 4), solo el 6% de estos artículos incluía una tabla que contenía resultados de confiabilidad, y menos de la mitad (45%) de los artículos incluyeron una cita relacionada con fiabilidad del inter-codificador, el nivel de fiabilidad más bajo fue de 0.40, y el mínimo aceptable era de .075 (SD=0.26).

Conclusión:

El análisis de contenido ha demostrado que aun se tienen problemas en la evaluación y reporte de la fiabilidad de los inter-codificadores, por lo tanto, basado en la revisión de literatura y en los resultados de este estudio, las siguientes normas y directrices se proponen para este proceso:

  1. Calcular y reportar la fiabilidad del inter-codificador
  2. Seleccionar índices apropiados
  3. Tener herramientas que permitan realizar los cálculos.
  4. Seleccionar los mínimos niveles de fiabilidad aceptables.
  5. Evaluar informalmente durante el entrenamiento.
  6. Evaluar formalmente en un piloto de prueba.
  7. Evaluar formalmente con la codificación de una muestra completa.
  8. Seleccionar y seguir un procedimiento apropiado para incorporar la codificación de la muestra de confiabilidad en la codificación de la muestra completa.
  9. No se deben hacer ninguna de las siguientes: usar solo porcentajes para el cálculo, usar sobreposicion e la codificación, entre otros.
  10. Informe la confiabilidad del inter-codificador de manera cuidadosa, clara y detallada en todos reportes de investigación, y provea una información mínima como: tamaño y método usado para crear la muestra fiable, la relación de la muestra de fiabilidad con la muestra completa, el número de codificadores y si se incluyen los investigadores, índices seleccionados, horas de entrenamiento requeridas, entre otras.

Referencias

Lombard, M., Snyder-Duch, J., & Bracken, C. C. (2002). Content Analysis in Mass Communication: Assessment and Reporting of Intercoder Reliability. Human Communication Research, 28(4), 587–604.

Relación entre Universidad – Industria – Gobierno MMCORRAL

Maria Mercedes Corral S.

La organización de los documentos y referencias para la investigación es importante para poder optimizar resultados y análisis de la información recopilada. El objetivo de este ejercicio es utilizar un corpus de documentos relacionados con la investigación doctoral y con ayuda de  la herramienta Voyant -Tools generar algún análisis sobre resultados obtenidos.

El corpus utilizado incluye 5 documentos relacionados con el tema de mi investigación, y comprende los siguientes documentos:

  1. Santos, P.. Moving the Universities to the «Third Mission» in Europe, New Impulses and Challenges in Doctoral Education. Foro de Educación, 14(21), 107-132. (2016) doi: http://dx.doi.org/10.14516/fde.2016.014.021.006
  • Gibbons, M., Limoges, C., Nowotny, H., Schwartzman, S., Seot, P. Trow, M, The New Production of Knowledge, The Dynamics of Science and Research in Contemporary Societies, SAGE Publications, London. (2002),
  • Leydesdorff, L, The mutual information of university-industry-government relations: An indicator of the Triple Helix dynamics, Jointly published by Akadémiai Kiadó, Budapest Scientometrics, and Kluwer Academic Publishers, Dordrecht Vol. 58, No. 2 (2003) 445.467, (2003),
  • Göransson, B. & Brundenius, C., Universities in Transition: 3 The Changing Role and Challenges for Academic Institutions, International Development Research Centre, Part 1, (2011)

Información recolectada y su interpretación:

Con los documentos mencionados en el corpus se generaron las siguientes gráficas, que permiten algún análisis e interpretación.

Esta nube de palabras generadas resalta palabras relacionadas con la investigación en tema de universidades, conocimiento, educación, industria, y alguna relación con modelos con la triple hélice, contribución teórica que presenta la relación, entre universidad, gobierno e industria. Así mismo vemos palabras como innovación que representa otra contribución teórica sobre la forma de producir conocimiento e impactar la sociedad con esquemas como la innovación.  Otras palabras como desarrollo, estudiantes, ciencia, relaciones pueden ayudar a establecer relación de la educación en el contexto social.

Respecto a las tendencias, los 5 términos más utilizados son investigación, doctoral, conocimiento, educación y universidad, lo cual relaciona claramente dentro del corpus estos términos sobre lo que se está buscando en la relación de universidad, gobierno e industria, así mismo se observa una tendencia bastante equilibrada en los 5 documentos respecto de estas palabras.

Estas 5 palabras aparecen representan un patrono claramente determinado en el corpus de estos 5 documentos, faltaría relacionar otras palabras que pueden ser importantes e interesantes como políticas, industria que permitan ver una relación más directa con la universidad.

Respecto a la frecuencia de estas palabras, research 221, doctoral 171, knowledge 170, education 162, university 162, en un total de cerca de 30.000 que representan el corpus.

Herramientas como Voyant Tools, permiten análisis de textos que pueden contribuir a la investigación y a una mejor selección de referencias que enfoquen de alguna manera los temas relacionados con los objetivos de la investigación.

 Para este ejercicio en particular, se tomaron 5 documentos que relacionan alguno de los temas de la investigación y se podría analizar más a fondo el contenido de los mismos, con las tendencias que permite ver la herramienta, y su relación con el proyecto en general.

La Codificación en la Investigación Cualitativa – MMCORRAL

Introducción a los códigos y la codificación,

Este resumen presenta la Introducción del libro  de Saldana, J. (2016)., The Coding Manual for Qualitative Researchers , y voy a tratar de presentar algunos ejemplos y definiciones, así como el rol de  los códigos en la investigación cualitativa; también es importante tener algunos atributos claros en el investigador y el  rol de cada método en la respectiva codificación.

Los tres principales propósitos del manual son: 1. Discutir las funciones de los códigos y la codificación, 2. Tener varios métodos de codificación, 3. Tener fuentes, ejemplos y recomendaciones para el análisis a realizar.

Todo investigador que quiere realizar análisis cualitativo debe tener claro su código y método de codificación para el análisis. La excelencia en la investigación en gran parte radica en el método de codificación (Strauss, 1987, p. 27). El autor enfatiza que hay momentos de la investigación que es absolutamente necesaria la codificación de datos, sin embargo, también hay puntos donde no es apropiado para el estudio. La codificación “coding”, es solo “un camino” de hacer análisis cualitativo no es “el camino”. Este manual sirve básicamente como un modelo de referencia para este análisis.

Algunas definiciones que nos permiten entender y aclarar el método:

¿Que es un Código?

Un Código, en una investigación cualitativa se puede definir como una palabra o una frase corta que asigna un atributo a un conjunto de datos, estos datos pueden ser resultados de entrevistas, documentos, encuestas, correos entre otros. En el primer ciclo de codificación los datos pueden ir de una palabra a párrafos o páginas, y aún en el segundo ciclo pueden conservar estas dimensiones.

En semiótica, un código se relaciona con la interpretación de símbolos en sus contextos sociales y culturales específicos, mientras que en análisis cualitativo de datos un código 
es una construcción generada por un investigador que simboliza o “traduce” datos (Vogt, Vogt, Gardner, & Haeffele, 2014, p. 13), y por lo tanto hay interpretación del significado.


Codificación con patrones:

Algunas veces es posible agrupar datos por algunos conceptos y de esta manera generar patrones que pueden compartir atributos, lo cual también se puede utilizar, los patrones se pueden caracterizar por, similitud, diferencia, frecuencia de ocurrencia entre otros.

Codificación con filtros lentes y ángulos:

En esta codificación se requieres usar la lente analítica de su investigador y cómo percibe e interpreta sus datos de acuerdo a los filtros y desde el ángulo que se esté mirando.

La codificación como heurística

Los investigadores cualitativos codifican sus datos durante y después de la recopilación esto como una táctica analítica, puesto que la codificación es el análisis. Sin embargo, hay otras perspectivas que dicen: “Codificación y análisis no son sinónimos, aunque la codificación es un aspecto crucial del análisis” (Basit, 2003, p. 145). La codificación es una técnica de exploración que sirve para resolución de problemas sin algoritmos o fórmulas. La codificación siempre va en ciclos y casi nunca se logra completar el análisis con el primer ciclo, se necesitan como tres o cuatro para lograr generar categorías, temas, patrones y lograr conclusiones.

Codificación y categorización

Codificar es organizar los datos con un orden sistemático y definido para poder establecer categorías. Cuando se aplican los códigos a datos cualitativos, en varios ciclos se busca agrupar, reorganizar y vincular los datos para lograr consolidar un resultado y así tener una explicación al análisis. (Grbich, 2013). Esta consolidación logra determinar categorías que comparten algunas características, y nos permiten realizar un análisis. A diferencia de un análisis cuantitativo donde se calcula una media entre los datos en el cualitativo se calcula un significado.

Este proceso de categorización como se mencionó, anteriormente, va en ciclos y se generan procesos de recodificación y recategorización. La recodificación puede ocurrir con otra perspectiva utilizando de nuevo los métodos del primer ciclo, mientras que los métodos del segundo ciclo describen aquellos procesos que podrían emplearse durante la segunda (y tercera y posiblemente cuarta …) revisión de datos, este sería un esquema para el análisis.

Algunas categorías pueden contener grupos de datos codificados que merecen un mayor refinamiento en subcategorías, cuando se consolidan categorías se llega a los temas y las teorías.

Dato à Codigo à Categoría  à  Tema à Teoría

Técnicas de codificación y diseño de los datos

La preparación de datos para la codificación genera más familiaridad con los contenidos y permite iniciar algunos procesos analíticos básicos. Cuando se preparan los datos cualitativos basados ​​en texto para la codificación y el análisis manual (es decir, papel y lápiz), se pueden tener otras ayudas como notas de campo y otros materiales generados por el investigador. Además de codificar con palabras y frases cortas, nunca pase por alto la oportunidad de “pre-codificar” (Layder, 1998) siempre resaltando lo que pueda ser significativo y sea de atención. Es relevante codificar utilizando un CAQDAS, Computer-Aided Qualitative Data Analysis, que permita recuperación posterior de los códigos.

Es importante iniciar la codificación a medida que recopila sus datos, no después de que se haya completado todo el trabajo de campo, en este momento no necesariamente hay precisión, pero si sirven para futuros análisis. Se pueden tener en cuenta algunas preguntas como: ¿Qué hace la gente? ¿Qué están tratando de lograr? ¿Qué medios y / o estrategias específicas utilizan?, ¿Qué suposiciones están haciendo? Para mencionar algunos ejemplos. También se debe tener en cuenta las cantidades de datos y/o códigos cualitativos, por si se quieren transformar en algún análisis estadístico.

Para construir su libro de códigos es necesarios utilizar un programa CAQDAS – Computer-Aided Qualitative Data Analysis, que le permita mantener su lista, y utilizarla en varios momentos. Esta tarea se puede realizar de forma manual o electrónica, una vez se logra la experiencia con los programas. Se deben conocer sus configuraciones y utilizar sus opciones de tal forma que se pueda optimizar el uso de la herramienta, y de esta manera asegurar la confiabilidad de los datos. Con las herramientas seleccionadas se logran consultas más elaboradas sobre los datos y por supuesto es una ventaja sobre la búsqueda manual. Para la codificación existen también dos formas de realizarla, se puede realizar el proceso “solo” o conformar equipos y compartir diferentes miradas sobre los datos y la codificación lo cual puede llevar a mejores análisis y resultados.

Sin entrar en detalle es importante contar con algunos atributos personales necesarios para el proceso de codificación: 1.ser organizado con los datos, 2.ser perseverante y constante, 3. Ser capaz de lidiar con ambigüedad en los datos, 4. Ser flexible sobre los datos, 5. Tener creatividad sobre la codificación, 6. Ser rigurosamente ético sobre sus datos, y 7. Tener un vocabulario extensivo que le permita definir categorías diversas.

Algunas críticas en contra de la codificación han sido filosóficas y otras metodológicas. Saldana en su manual referencia algunas de éstas. La codificación intenta ser objetiva, esto podría ser una discusión extendida sobre los supuestos ontológicos, epistemológicos y metodológicos de la investigación. La codificación es mecanicista, instrumentalista y te aleja de tus datos. Si no existe una buena codificación, te alejas del significado de los datos. La codificación no es más que contar las ocurrencias de los códigos y esto sirve para medir frecuencia de ocurrencias. La codificación es “peligrosa”, “violenta” y “destructiva”, no entiende Saldana estas caracterizaciones a la codificación y va totalmente en contra de esto y seguramente de lo malos codificadores. Se califica la codificación como método obsoleto para el análisis cualitativo de datos, llevando mas de medio siglo, las metodologías y herramientas ciertamente han cambiado, pero el proceso es el mismo.

Termina Saldana este capítulo “comparando la codificación con un arte, una artesanía, se debe atender el arte y también la artesanía de lo que hacemos” para lograr el éxito.

Mi investigación para el doctorado tendrá alto contenido de datos cualitativos, posiblemente contando con algunos datos cuantitativos. Para el análisis cualitativo seguramente podré explorar un poco más el trabajo con códigos y codificación.

Referencias

Saldana, J. (2016). The Coding Manual for. Qualitative Researchers (3rd ed.) London, UK: Sage. Chapter 1. Introduction to code and coding.

Módulo 4 – Análisis de contenido

[Contenidos semanas 14, 15, 16]

[Laboratorios semanas 14,15,16]

Semana 14 (4.5.2020)

Introducción métodos cualitativos, cuantitativos y computacionales para análisis de contenido.

Lecturas requeridas:

Lecturas adicionales:

Laboratorio:

  • Preparación de un conjunto de datos (corpus de texto, sample) en formato de texto plano  (*TXT).
  • Análisis de contenido computacional (minería de texto) utilizando Voyant Tools.
  • Guía del taller-laboratorio

Semana 15 (11.5.2020)

Selección de tópicos, unidades de mensaje y muestras + Variables y operacionalización de categorías.

Lecturas requeridas:

Lecturas adicionales:

(Ejemplos de revisiones sistemáticas de literatura que utilizan análisis de contenido)

  • Shirley Ann Williams, Melissa Terras, Claire Warwick (2013). “What people study when they study Twitter: Classifying Twitter related academic papers”. Journal of Documentation, 69 (3). 
  • Snelson, Chareen. (2016). Qualitative and Mixed Methods Social Media Research: A Review of the Literature. International Journal of Qualitative Methods. 15. 10.1177/1609406915624574. 

Laboratorio:

  • Selección y estructuración de muestra (sample, corpus) para mini-proyecto
  • Preparación libro de códigos (coding scheme) para mini-proyecto. Operacionalización de categorías. 
  • Construcción de tabla (spreadsheet) para codificado.
  • Guía del taller-laboratorio – sesión 2 – módulo 4

Semana 16 (18.5.2020)

Fiabilidad, procesos de codificación y análisis.

Lecturas requeridas:

Lecturas adicionales:

Laboratorio:

Evaluación módulo 4 (20%):

  • 10% 2 reflexiones escritas
  • 10% actividades de laboratorio y mini-proyecto.

Reflexión escrita

Cada estudiante realizará una reflexión escrita de una de las lecturas asignadas y la publicará en el sitio web de la clase, en la fecha asignada.

Mini-proyecto

Los estudiantes propondrán y desarrollarán un breve estudio de análisis de contenido. Este proyecto puede utilizar los conjuntos de datos capturados durante el módulo 1  o proponer un nuevo conjunto de datos (ej: noticias, artículos relacionados con uno de los temas de investigación de los integrantes del grupo).

El mini-proyecto será presentado en un breve reporte o documento escrito (post en el website) que incluya una introducción al problema, pregunta de investigación, presentación de los datos, los métodos y las herramientas utilizadas, verificación del proceso de codificado, un breve análisis de los datos (e.g. de contenido) acompañados de visualizaciones, y una conclusión con los hallazgos preliminares de la investigación y sus limitaciones. 

Estructura del mini-proyecto (Reporte de construcción de la muestra, sistema de codificado, y análisis de los documentos que conformarán la revisión sistematizada de literatura):

  • Introducción
  • Problema
  • Métodos: definir y explicar el tipo de AC que desarrollarán
  • Muestra – sample : al menos una presentación de la muestra de documentos que incluirían en su investigación (entre 10 – 20 artículos, capítulos de libros, o libros)
  • Categorías de análisis (libro de códigos)
  • Sistema de codificación – esquema de codificación : presentación del instrumento (matriz o tabla para codificado)
  • Aplicación del sistema de codificación a una sub-muestra o parte de la muestra que utilizarán en el trabajo final (mínimo 5 documentos).
  • Reflexión sobre fiabilidad e veracidad del sistema de codificado (2 analistas, al menos 5 documentos – puede ser solo con el abstract y los títulos del documento).
  • Conclusiones (preliminares)
  • Referencias