MAPA ESCUELAS ED

Semiótica narrativaModelo transformacional o gramática generativaLingüística computacional Inteligencia artificial-informática
Objetos(s)La semiótica narrativa, desarrollada por A.J. Greimas, aborda el estudio de la narratividad a partir del análisis de lo que denomina, con rigor, la estructura narrativa del texto. Es precisamente su procedencia teórica la que garantiza la solidez de la construcción de los objetos que manipula. El parentesco de estos objetos teóricos con los elementos que se consideran propios del análisis narrativo (personajes, acciones, etc.) y que son comúnmente considerados en los manuales de guiones.  El término gramática generativa se refiere a un conjunto de marcos teóricos para el estudio de la sintaxis de las lenguas. Una gramática generativa proporciona un conjunto de reglas o principios que predicen correctamente las combinaciones que aparecen en oraciones gramaticalmente correctas para una determinada lengua Por otra parte, la explicación de las condiciones del lenguaje propuesta por Chomsky es una teoría de la competencia y no de la actuación, es decir, no explica la producción ni la percepción del lenguaje en circunstancias cotidianas sino en estados abstractos, ideales.Es un campo interdisciplinario que se ocupa del modelado computacional del lenguaje natural, así como del estudio de enfoques computacionales apropiados para cuestiones lingüísticas. En general, la lingüística computacional recurre a la lingüística, la informática, la inteligencia artificial, las matemáticas, la lógica, la filosofía, las ciencias cognitivas, la psicología cognitiva, la psicolingüística, la antropología y la neurociencia, entre otras.
Tarea(s)
Método(s)La propuesta metodológica fundamental de la semiótica discursiva es la del recorrido generativo de la significación, heredera, así como la semántica estructural, de la concepción hjelmsleviana de figura (Hjelmslev, 1975 [1968]). A partir de las nociones de figura, lengua y teoría del lenguaje, formuladas por Hjelmslev, Greimas establece que sólo se puede construir una teoría semántica y semiótica cuando los dos planos, el de la expresión y el del contenido, son separados metodológicamente.   El recorrido generativo es una construcción teórica que intenta modelar el modo cómo se genera y se articula el sentido en un texto. No se trata de una simulación del modo cómo se produce el tránsito entre una “idea” y un film, sino de una estructura que puede construirse mediante el análisis y que permite comprender el funcionamiento semiótico de este tipo de texto en particular. Un esquema general permite comprender la dinámica global del modeloMétodo matemáticoEl procesamiento del lenguaje natural (PNL) es un subcampo de la lingüística, la informática y la inteligencia artificial que se ocupa de las interacciones entre las computadoras y el lenguaje humano, en particular cómo programar las computadoras para procesar y analizar grandes cantidades de datos del lenguaje natural. El objetivo es una computadora capaz de “comprender” el contenido de los documentos, incluidos los matices contextuales del idioma que contienen. Luego, la tecnología puede extraer con precisión la información y los conocimientos contenidos en los documentos, así como categorizar y organizar los propios documentos.
Representantes / obrasA.J. Greimas / Semiótica. Diccionario razonado de la teoría del lenguaje  – La semiótica del texto   Roland Barthes / S/Z – Análisis estructural del texto   Mattelart / Para leer al pato donaldChomski / (1977) Problemas actuales en teor a lingü stica. Temas te ricos de gram tica generativa   Zellig Harris / Análisis lineal de la estructura oracional (1962) y en Análisis de la frase (1963)Bonnie Webber / A Formal Approach to Discourse Anaphora   Bárbara Grosz / Architects of Intelligence: The Truth About AI from the People Building it   Roger Schank /  
Categorías nuclearesActante: Los actantes se definen como: los seres o cosas que, por cualquier título y de cualquier forma, incluso como meros extras y de la forma más pasiva, participan en el juicio (Tesni re, 1959: 102).Estructura Profunda y Estructura Superficial   Competencia lingüística y actuación lingüística: La competencia corresponde a la capacidad que tiene un hablante-oyente idealizado para asociar sonidos y significados conforme a reglas inconscientes y automáticas. La actuación, o ejecución lingüística, corresponde a la interpretación y comprensión de oraciones de acuerdo con la competencia, pero regulándose además a partir de principios extralingüísticos, como las restricciones de la memoria, e incluso las creencias (Chomsky, 1970, 1992).   Forma Lógica (LF) y la Forma Fonética (PF)   El lenguaje-I en referencia al lenguaje interno, es el objeto de estudio de la teoría sintáctica, es la representación mental del conocimiento lingüístico que tiene un hablante nativo de una lengua, y es, por lo tanto, un aspecto mental. Desde esta perspectiva, casi toda la lingüística sería una rama de la Psicología. Lenguaje-E se refiere a muchas otras nociones de lo que es el lenguaje, por ejemplo: lenguaje como un ente de conocimiento o de hábitos de conducta compartidos por una comunidad.Inteligencia artificial  

BITCOIN COMO UN NUEVO SISTEMA FINANCIERO PARA AMÉRICA LATINA

Durante los primeros años del siglo XXI se vivió lo que muchos nombraron como una época de tecno-utopías por las diferentes propuestas que surgían entorno a las habilidades de la naciente red global, de construir una humanidad activa, participativa y empoderada en comunicación constante a través de redes digitales abiertas. Si bien internet no se convirtió en esto, si generó los espacios necesarios para que las propuestas con estas intenciones tuvieran cabida y lograran generar movimientos de relevancia en diferentes partes del mundo.

Entre estas propuestas en 2008 se crea el Bitcoin como la primera moneda electrónica diseñada por Satoshi Nakamoto como una “cadena de firmas digitales”. Como se lee en un texto de John Baldwin “… el desarrollo y operación de monedas digitales como el Bitcoin puede iluminar la economía digital emergente, su discurso y sus descontentos.” (2018, traducción propia). Para algunos usuarios esta forma de mercado financiero emergente se caracteriza por: “la primera cosa que conozco donde se puede ser rico y cambiar el mundo a la vez” (Voorhees in Popper, 2015, p 9) “Es intercambiar dinero sin bancos y trabajar con el dinero sin dinero” (Lanchester, 2016, p 8)(2018, traducción propia). Lograr construir un sistema financiero sin los sobrecostos de los bancos, independiente de las condiciones internacionales, con posibilidad de ser pensado desde cero, con la inteligencia artificial a su favor, puede generar una nueva forma de relacionarnos con el dinero. 

Todo esto nos lleva a preguntar ¿es posible pensar en una moneda unificada latinoamericana que este soportada en criptomoneda con el fin de ir construyendo estabilidad?

Sin embargo, hay que seguir el argumento del texto de Baldwin donde afirma que las tecno-utopías tienden a ser inocentes de los procesos que explotan internet y que deben ser tenidas en cuenta diferentes críticas antes de glorificar a las criptomonedas. La última alarma la acaba de generar Elion Musk al hacer una jugada financiera que le hizo ganar millones de dólares, perdidos por la gente. Su cambio de opinión sobre la relación entre los carros Tesla y las criptomonedas cambio el precio en cuestión de meses, haciéndole perder credibilidad a las criptomonedas al generar desconfianza por su volatilidad.

También es importante resaltar que la cantidad de energía que se necesita para mantener estos sistemas funcionando es excesiva y debe ser construida con sistemas sostenibles sino colapsará, “…la cantidad de energía que se consume en las operaciones de blockchain es tan grande que ha generado la idea que el Bitcoin es en si mismo insostenible” (Malmo in Golumbia, 2016, p 43). Argumento también de Musk para decir que no sigue apoyando a las criptomonedas.

En este sentido, la inteligencia artificial puede ayudar a evitar las fallas que aprovechan los hackers y buitres de las finanzas, y los sistemas deben ser transformados por energías renovables para pensar en un futuro de criptomonedas que puede ayudar a superar algunas deficiencias del mercado actual. Usar la tecnología para el manejo de data, la eficiencia y optimización de costos, podría ayudar a conformar una realidad soñada donde los bancos son remplazados por un gran sistema de intercambio automatizado completamente digitalizado donde los robots hacen todo el trabajo.

BIBLIOGRAFÍA

https://www.forbes.com/sites/louiscolumbus/2020/10/31/the-state-of-ai-adoption-in-financial-services/?sh=74b0cbc42aac

https://www.nature.com/articles/s41599-018-0065-0

INFORME GRAPHCOMMONS

Se realizó un análisis de los datos descargados del dataset Influencers recogida en la universidad, donde se analizaron los principales perfiles de Twitter que jalaron conversación sobre Noticias Uno entre el 1 de septiembre y 23 de diciembre de 2019. También se le dio un peso a cada relación de cada uno de estos influencers con el hashtag #noticiasuno, sumando la cantidad de twists que realizaron en estas fechas con este hashtag.

Como resultado del ejercicio podemos resaltar:

Personajes como Alvaro Uribe, Ivan Duque o Cicky Dávila son representativos en el número de veces que se mencionó el hashtag.

Existe un equipo de periodistas considerados de izquierda, que hacen parte de la comunidad más representativo del canal.

Los periodistas más reconocidos del país suelen incluir a Noticias Uno en sus comentarios en Twitter.

Los medios del país también citan relativamente seguido a Noticas Uno

Los trabajadores de Noticias Uno son importantes a la hora de medir las menciones más relevantes del hashtag, donde principalmente Mabel Lara fue un influencers de mucho peso para al canal, su directora María Cecilia Orozco también logra importantes números.

Reseña Semana 10 – Antonieta Kuz

RESEÑA DEL ARTÍCULO

Kuz, Antonieta et al. (2016) “Análisis de redes sociales: un caso práctico”. Computación y Sistemas, 20(1), pp. 89-106.

El texto (2016) es escrito por Antonieta Kuz, ingeniera en Sistemas de Información, estudiante de doctorado de UNICEN; Mariana Falco, Analista en Sistemas, estudiante de Ingeniería en Sistemas UTN FRLP; y Roxana Giandini, doctora en Ciencias Informáticas de la UNLP. Esta apoyado por las universidades Tecnológica Nacional, LINSI, y la Universidad Nacional de La Plata, LIFIA, Facultad de Informática, ambas de La Plata, Buenos Aires, Argentina.

En cuanto a la estructura formal, el autor habla de 5 secciones donde “en la sección 2, se describe el marco teórico del Análisis de Redes Sociales junto con la contextualización y definición de métricas y herramientas de software. En la sección 3, se describe la herramienta Gephi. En la sección 4, examinaremos un caso de aplicación práctica utilizando Gephi. Finalmente, en la sección 5 se exponen las conclusiones sobre el trabajo y las líneas de trabajo futuro”. Esta reseña estará dividida en tres bloques, el primero donde se resume el marco teórico de las ARS descrito en el texto, el segundo donde se hace referencia a las métricas expuestas y uno tercero dedicado a la descripción de la herramienta para la visualización de datos Gephi.

Este documento es técnico y describe los principios de una teoría que todavía no expone todas las aristas de las redes sociales, pero que permite darle forma a las investigaciones de científicos sociales, a partir de las relaciones que se practican todo el tiempo en estos espacios. Sin duda es un texto de mucha importancia para abordar el estudio de redes sociales ya que explica los principios, las métricas posibles, las herramientas, principalmente Gephi, y lo soporta en casos.

Para darle contexto al Análisis de Redes Sociales se debe abordar el estudio de La Red y Las Redes que se forman entre individuos, organizaciones e instituciones, lo que puede ser ampliado según la teoría de Latour, incluyendo también a objetos, máquinas, algoritmos, entre otros. “Mitchell define una red como un conjunto particular de interrelaciones (en inglés, linkeages) entre un conjunto limitado de individuos, con la propiedad adicional de que las características de estas interrelaciones, consideradas como una totalidad, pueden ser utilizadas para interpretar el comportamiento social de las personas implicadas. Las estructuras sociales se disponen en diversas configuraciones de las cuales el ARS puede dar cuenta al elaborar su morfología y topología específicas… Las ARS se centran en la capacidad que se genera al entender los fenómenos sociales como una red donde los individuos son de la misma relevancia que las relaciones que se crean entre ellos.” (resalte propio).

A partir del estudio de Las Redes se desprenden las ARS como una ciencia que viene en crecimiento generando sus propios métodos y herramientas. La descripción de este método de análisis (ARS) es clara en el texto, cuando cita a Ávila-Toscano, “el método de evaluación de las redes se denomina Análisis de Redes Sociales (abreviado ARS) y en general es considerado como el estudio de la estructura social, y en un sentido más amplio se puede entender como un método cuantitativo por medio del cual se obtiene la estructura social a partir de las regularidades en el patrón de relaciones establecidas entre entidades sociales definidas como personas, grupos u organizaciones”.

El proceso de recolección de datos puede darse de muchas maneras, inclusive con métodos tradicionales como la etnografía, y luego estos datos se procesan mediante los procedimientos formales: “Estos procedimientos consisten esencialmente en la Teoría de Grafos y la Teoría Matrices.”

“La teoría de grafos… es una rama de las matemáticas y las ciencias de la computación que estudia las propiedades de los grafos… Formalmente, un grafo {\displaystyle G=(V,E)} es una pareja ordenada en la que {\displaystyle V} es un conjunto no vacío de vértices y {\displaystyle E} es un conjunto de aristas.” (Wikipedia) 

Por otro lado, la teoría de matrices nos habla de la forma en que se disponen los elementos para su análisis, por ejemplo, en una matriz los elementos deben ser dispuestos de forma rectangular en filas y columnas.

El estudio de las ARS ofrece un número extenso de métricas para analizar distintas propiedades de la red. Estas métricas se centran en a. “Fuerza de los vínculos: desde el punto de vista del ARS, los lazos o vínculos interpersonales son definidos como conexiones portadoras de información entre personas o individuos. Se sostiene que los lazos interpersonales débiles son los más presentes en las redes sociales en la sociedad, así como los mayores responsables de la transmisión de información a través de dichas redes… la fuerza de un vínculo es una (probablemente lineal) combinación del tiempo, la intensidad emocional, confianza mutua y los servicios recíprocos que caracterizan a dicho vínculo. b. El grado del nodo se determina por el número de conexiones que un individuo tiene y que pueden ser direccionadas o no direccionadas… Cuando un actor de la red tiene un alto grado de entrada puede significar que esta persona tiene un alto prestigio y es muy reconocido por los demás, el grado de salida se refiere al número de conexiones de salida de un nodo con otros y puede entenderse como que este actor tiene un alto grado de influencia sobre los demás.”

Las diferentes métricas que existen para la práctica de las ARS son bastante ricas en posibilidades de análisis. Según el texto existen las de centralidad y poder, las métricas de grupos, las de análisis de cluster, o las de centralización de la red que centra su importancia en que: “si esos nodos son removidos la red rápidamente se fragmentará en subredes desconectadas.” Las redes de baja centralidad son mucho más resistentes[1]; “el grado de centralidad es el número de conexiones directas que tiene un nodo; el grado de entrada: el número de líneas que poseen a v como nodo terminal; grado de salida: el número de líneas que poseen a v como nodo inicial.”; es interesante también la métrica que habla de los peripheral players que como su nombre lo indica son métricas que permiten abordar a los actores periféricos de una red y valorar su importancia sobre esta; la teoría de mundo pequeño no solo nos habla de una métrica de ARS, sino que ha apalancado toda la teoría de Duncan Watts de los 6 pasos[2]. Esta métrica busca,  “encontrar clúster y caminos más cortos que son comunes en la red exhibiendo alta eficiencia en el comportamiento small-worlds.”; la métrica de ego network nos permite abordar métodos partiendo del individuo y analizando la red que se construye a su alrededor, “consiste en la red que se forma a partir de un nodo focal “ego” y los nodos a los cuales el ego está directamente conectados, llamados “alters” y sus lazos.” Entre muchas métricas más.

Las herramientas que expone el texto tienen unas características similares: son gratuitas, son construidas por académicos pero pensando en un uso masivo, tienen una amplia capacidad, son más básicas que las herramientas de pago, pero en general cumplen con lo mismo. Como lo afirma el texto “En primer lugar, nos encontramos con las herramientas de análisis de redes sociales, académicas y avanzadas que frecuentemente son usadas en ambientes académicos y destinadas también para realizar un análisis de redes sociales más sofisticado. Están orientadas a la usabilidad más que a la performance. Las guías de usuario y archivos de ayuda no están del todo completas, no son simples de comprender y están diseñados para audiencias sofisticadas. Ejemplo: UCINET, Pajek… Las guías de usuario y la ayuda están orientadas a una audiencia general. Ejemplo: NetMiner. Existen también las herramientas simples y fáciles de usar, como NodeXL”

En cuanto a las herramientas, el texto hace referencia a varias, pero se centra en Gephi por diferentes motivos que expone, “Finalmente, nos encontramos con las herramientas que permiten la visualización de datos generados por usuarios preexistentes que son utilizadas para analizar datos existentes disponibles para los usuarios. Son simples de usar con funcionalidades intuitivas como por ejemplo, Gephi.”

Entre los usuarios de Gephi se encuentra el New York Times “que lo usa para la visualización de la conectividad global del contenido como así también para la examinación del tráfico de Twitter.”

En general se usa para “importar, exportar, manipular, analizar, filtrar, representar, detectar comunidades y exportar grandes grafos y redes… Brinda su apoyo a la exploración de los medios sociales con funciones de importación que extraen datos de los índices de correo electrónico, Twitter, YouTube, Facebook o Foros. Así mismo, es posible la conexión a través de archivos nativos de otras herramientas como Excel.”

Las ventajas que enumera el texto son: “Disponibilidad del software: es gratuito. Interfaz: cuenta con claridad en la interfaz de usuario. Métricas: cantidad y facilidad de uso de las métricas y sus resultados. Importar/Exportar: tiene la capacidad para importar o exportar otros formatos de archivo, ya sea de otros softwares de análisis, Excel u otros. Visualización Gráfica. Capacidad para graficar redes. Documentación: tiene disponibilidad y claridad de la documentación. Actualizaciones: está frecuentemente actualizada y cuenta con nuevas versiones recientes.”

El texto da forma al Análisis de Redes Sociales y permite explorar esta metodología para apropiarla como investigador, al tiempo que aborda una herramienta técnica que da una nueva perspectiva a la comunicación de la información y convierte la visualización de datos en una forma de arte con una experiencia estética definida. Como lo menciona el texto, “el ARS ha ido evolucionando desde sus orígenes hasta la actualidad, de manera tal que actualmente un conjunto de enfoques, aplicaciones, métricas, representaciones de las relaciones, características estructurales de las redes y herramientas para cubrir el espectro que abarca.”

Por otro lado, es importante resaltar algunos elementos de las redes sociales que no son tenidos en cuenta desde esta perspectiva. Las estrategias de mercado tipo “referidos”, el uso de bots y en general las interacciones pagas deben ser tenidas en cuenta a la hora de generar análisis de ARS ya que podrían dar modelajes falsos impulsados por el pago o bien se deben contemplar como variables centrales.

El uso de Gephi permite construir una experiencia alrededor de la visualización de datos y la comunicación de información que impulsa el acercamiento de diferentes públicos y permite la producción de contenidos que pueden ser parte inclusive de portadas de periódicos.


[1] Ver libro: Brafman, O. Beckstrom, R. (2006) Starfish and the Spider: The unstoppable power of leaderless organizations. Nueva York: Penguin Group.

[2] Watts, D. (2004) Six Degrees: The Science of Connected Age. W. W. Norton & Company

DIARIO DE CAMPO

DIARIO DE CAMPO EXPLORACIÓN TWITCH

Después de una revisión preliminar de la plataforma y conociendo de antemano algo de esta, se buscó directamente en la pestaña o sección de música, en relación a los intereses principales de mi investigación.

De una primera observación se puede determinar que esta puede ser una plataforma interesante de circulación y monetización de contenido en directo que puede ser explorada por los artistas del país. Así que la observación se centrará tanto en las características de los espacios visitados, como en las capacidades de interacción y comunicación con los usuarios y en las opciones y realidad de la monetización a través de esta plataforma.

En la sección de música primero se realizaron búsquedas con términos como Champeta, Picó e inclusive reggaeton y ninguna arrojo resultados.

Posteriormente se exploraron dos canales dentro de la sección música. el primero el canal con más personas conectadas en el momento de la visita (7:30 pm. 01/03/2021). Este canal es:

Este canal es de un dj que se promociona como “Los Angeles-based House Music Producer with releases on Crosstown Rebels, elrow, Dirtybird, Desert Hearts, Gruuv, and Deeperfect.”

Cuenta con todos estos espacios de promoción de su trabajo, lo que permite ver una red digital fuerte que debe ser investigada a profundidad.

El segundo canal visitado fue:

Donde es interesante ver la puesta en escena que desarrollan para generar estos directos. Disfraces, escenario, utileria, vestuario, máscaras, hacen parte de la propuesta de este canal.

INTERACCIÓN Y MONETIZACIÓN

Entre los elementos de interacción y monetización se pueden resaltar los siguientes:

Interacción a través de chat:

Interacción hacia la monetización a través de regalos:

Organización del chat:

Monetización a través de donación online:

TALLER MÉTODOS 0103 – MEDIACLOUD

Para este taller a partir de la herramienta Mediacloud, se escogió realizar una comparación de noticias a partir de dos términos de búsqueda que son contradictorios y que pueden marcar un cambio de comportamiento y de lenguaje en los medios del país.

Los términos de búsqueda fueron: “feminicidio”

Con este término de búsqueda analizado en medios colombianos y en el intervalo de tiempo entre 2013-02-02 al 2121-03-02, se pueden ver una tendencia con crecimientos esporádicos relacionados a asesinatos de mujeres que tuvieron un gran cubrimiento y movieron las fibras del país.

Algunas noticias encontradas son:

Al comparar el término de búsqueda “feminicidio” con el antes usado “crimen pasional” vemos cómo los medios se han alejado de este nombre absurdo, que ya no es tolerada por la sociedad, y han nombrado el asesinato de mujeres como feminicidio.

Vemos como la idea de “crimen pasional” ya no es usada por la mayoría de los medios del país. Algunas noticias que incluyeron este término fueron:

La pregunta de investigación de la que partimos fue: ¿Los medios todavía siguen utilizando el eufemismo “crimen pasional” o se utiliza el término “feminicidio”? Esta búsqueda se hizo con los siguientes términos de búsqueda:

Periodo de búsqueda: 2013-02-02 al 2121-03-02

Colección de Noticias: Colombia – National

Cubrimiento de medios en particular:

Se realizó la búsqueda “feminicidio” en dos diarios Colombianos de gran tirada: El Colombiano y El Heraldo, ambos de tradición conservadora. Es importante resaltar la ausencia de noticias relacionadas con estos temas, mientras estas dos regiones son reconocidas por la gran cantidad de feminicidios que se producen.

El Colombiano

El Heraldo

Reseña. Big Data for Media

Reuters Institute

Martha L. Stone

Noviembre 2014

El estudio Big Data for Media fue realizado por Martha L. Stone para el Reuters Institute. La introducción deja ver como el interés inicial es la respuesta a una tendencia que estaba creciendo en la industria de medios y es el big data y la inteligencia artificial, como se menciona en la introducción,“ In response to this rapidly accelerating trend, Martha Stone and the Reuters Institute embarked on a two-year study to identify the opportunities for Big Data strategies for media companies, and to chronicle the best practices in Big Data for media companies.”

Es importante notar que este texto se publica en el año 2014 en un contexto donde estos dos grandes desarrollos eran todavía desconocidos para la mayoría, pero el cual las empresas de mayor capacidad económica ya habian podido abordar. También cabe anotar que al tratarse de un estudio de dos tecnologías que se desarrollan a una velocidad impresionante, este estudio hace una fotografía de un momento específico de una tecnología que ahora hace parte de los procesos en buena parte de las grandes empresas del mundo. Al tratarse de una fotografía de un momento preciso, muchos de sus datos han cambiado y pierden vigencia mientras otros siguen siendo muy vigentes, como ampliaremos en esta reseña. 

Para conocer mejor este informe, es importante hablar de su directora y la empresa que realiza la mayor parte de la investigación, Martha L. Stone, según su perfil de Linkedin: “I’m an experienced leader and a recognized expert in digital, data, reader revenue, and artificial intelligence in media. … I’m an entrepreneur focused on how newsmedia meets 21st Century demand now and into the future. As a thought leader and visionary, I identify global areas of interest, perform research using qualitative and quantitative methods, and produce reports on leading-edge media trends.” Por otro lado, World Newsmedia Network en su página dice: “Inspiring media companies to innovate their digital, data, AI and revenue strategies World Newsmedia Network is a not-for-profit media organisation founded in 2010 to inform and inspire news media organizations to innovate their digital operations. WNMN creates strategic reports and organises major events for the industry.”

El informe está ampliamente difundido en diferentes repositorios web, entre ellos el Reuters Institute y la Universidad de Oxford. Uno de los puntos centrales de este estudio que se aclara en la introducción, es que fue contratado para convertirse en la base para dos seminarios centrados en el uso de Inteligencia artificial y Big Data en medios y que muchos de los participantes de la investigación fueron también participantes de los seminarios. 

Como se evidencia en los perfiles de las empresas detrás de este estudio, son equipos que han trabajado por mucho tiempo en la investigación e implementación de nuevas tecnologías en las industrias relacionadas con medios y principalmente medios de noticias. La importancia de este informe no puede ser medida a cabalidad en este momento, ya que generalmente estos informes marcan pautas en la adopción de nuevas tecnologías y pensamientos empresariales y su principal interés es el de ayudar a tomar decisiones en el momento. Pero este texto en particular, tiene en su parte cualitativa una importante recopilación de entrevistas a muchas de las personas más relevantes de la industria de ese momento, por lo que sus comentarios, proyecciones, certezas y dudas, siguen siendo importantes para las discusiones alrededor de estas temáticas. 

En este informe en particular, se mezclaron metodologías cualitativas y cuantitativas, para realizar esta foto del momento por el que estaba pasando el desarrollo de tecnologías que llevó a la adopción generalizada de la Inteligencia Artificial y el big data. Las metodologías cuantitativas no están claramente descritas en el informe, ya que estos datos son tomados de otras investigaciones realizadas por World Newsmedia Network.

Hablando directamente del contenido del informe tiene 3 partes que se entretejen con una estructura particular basada en estudios de caso. La primera parte describe algunos de los hallazgos más importantes que darían pie a la adopción rápida de estas tecnologías. Primero menciona que para esta adopción se necesitó una transformación en las 4Vs: Volumen, Velocidad, Variedad y Valor. También menciona otras causas determinantes para esta rápida adopción como lo son el costo del almacenamiento y de ancho de banda. Esta parte nos habla de cómo esta relación entre tecnología e industria de medios, construyo un ciclo de mejoramiento para las diferentes partes de la cadena de comercialización de los medios. Esta parte del estudio se hizo de forma cuantitativa.

La segunda parte se centra en los estudios de caso y a partir de estos, construye la información que se irá desplegando por todo el texto. Entrevistas a personas de mucha relevancia en la industria que dan un punto de vista al tiempo que ayudan a desenredar la madeja de esta nueva tecnología y cómo está siendo usada. Incluye información reservada de algunas de las compañías que hacen parte de los estudios de caso, que se convierten en piezas de gran valor. Así podemos ver documentos muy interesantes como el mapa de intereses temáticos del Huffpo, los mapas de acceso de usuarios por días y horas al Financial Times o los porcentajes de usuarios vs ventas de Tesco. 

Las estrategias de visualización de datos de este informe son de muy buena calidad y permiten repensar la forma de relacionarse con los datos, como es el caso de este Dashboard: 

A partir de esta visualización, desde periodistas hasta directores comerciales pueden tomar decisiones que impactan en el contenido hasta las estrategias de mercadeo. Acá se mezlca la entrevista semiestructurada con el uso de información entregada por las fuentes. Según el informe la metodología fue: “The Economist Intelligence Unit conducted a global survey of 373 executives and in-depth interviews with thought leaders about Big Data strategies in 2013.”

La tercera parte es una muestra cuantitativa que se centra en los diferentes usos, ventajas, barreras, la data útil, las fuentes de información, entre otros detalles fundamentales para la apropiación por parte de las empresas. En esta parte también es importante la forma en que abordan el tema de la privacidad y las respuestas que se obtienen de los empresarios: los ejecutivos de empresa están más interesados en el tema del respesto a la privacidad que los mismos consumidores y que entre más grande es el presupuesto de la empresa, más es la importancia que le dan a la privacidad. Nos habla también de los beneficios percibidos por los usuarios al entregar su data como también de los insentivos que se deben dar para que esto ocurra. 

En las conclusiones del informe algunos elementos centrales son: “The study found that the majority of these C-level respondents, 70 percent, look to Big Data analysis to be predictive in nature, in order to help them anticipate where their markets are headed and to inspire them to position themselves for growth.” Lo que demuestra que desde ese momento ya se comenzaban a vislumbrar las ventajas del big data para la toma de decisiones y como un negocio en particular. También concluye que “ More than half of the respondents, 51 percent, say the quality, reliability or comprehensiveness of the data is the top data challenge in business today.” 

Estas y otras conclusiones del informe dejan ver que está realizado para conocer las opiniones de los altos ejecutivos y la forma en que están adoptando en el año 2014 la inteligencia artificial y el big data en las empresas de medios de noticias y se centra en la capacidad operativa de estos grandes medios y de sus ejecutivos. También se hace evidente el interés por acercarse solo al grupo de los grandes empresarios dejando a un lado las oportunidades que puede tener esta tecnología para pequeños medios de comunicación, estrategias estatales, transformación en condiciones sociales, entre muchas otras. Esto puede demostrar como desde los inicios de estas tecnologías era irrelevante llegar a transformar los problemas de la sociedad y como su desarrollo se centró en las capacidades que le podían generar a empresas grandes del mundo.

Ejercicio Métodos 2202

En este ejercicio realicé una comparación entre el discurso del gobierno nacional representado en algunos de los textos de las ley naranja el cual se revisó con la herramienta Databasic, con los discursos de textos y políticas de software y derechos libres de países como Venezuela y Ecuador que se organizaron a través de la herramienta Voyant Tools.

DATABASIC

A partir de esta nube de palabras se puede realizar el siguiente análisis. Las palabras más repetidas son: nacional, economía creativa, sectores, desarrollo, gobierno, donde podemos inferir la necesidad de reafirmar el papel del gobierno a través de estos discursos al tiempo que se reafirman conceptos como desarrollo o economía creativa, ambos impuestos a la realidad nacional.

Podemos ver como palabras como cultura están casi al mismo tamaño que la palabra ministro y más pequeña que palabras como ministerio o infraestructura.

Por otro lado, se puede resaltar que no hay palabras como creador, artista, gremio, colectivo, todas de gran uso en el sector cultural. Tampoco palabras como educación, igualdad, compartir, conocimiento, colaborativo o acceso, aparecen mencionadas en el documento.  

VOYANT TOOLS

Con la herramienta Voyant Tools realizamos una búsqueda sobre diversos textos relacionados con conceptos como “programas libres”, “código abierto”, “ciencia y tecnología” y “sociedad de la información”. Acá encontramos que las palabras más repetidas son “software” y “tecnologías” al igual que la palabra “libre”.

Resaltan palabras como “información”, “sociedad” y “ciencia”, como también “innovación”, “código”, global”, “producción”.

Los países que se mencionan en estos textos son Colombia, Venezuela, Ecuador, pero por algún motivo pone cerca Venezuela y Ecuador y a Colombia la pone lejos.

Finalmente, es importante la palabra desarrollo que vuelve a tener un papel principal de esta nueve de palabras.

https://voyant-tools.org/?corpus=75a5d94132ab3663ca0d9111a0cc4dd6&panels=cirrus,reader,trends,summary,contexts

TEXTOS UTILIZADOS

1. Torres, J. y Petrizzo, M (2015) Software: Programas libres y de código abierto en la Administración Pública. Ecuador: Buen Conocer – FLOK Society.

2. Artigas, W; Useche M.C. y Beatriz Queipo (2017) Sistemas nacionales de ciencia y tecnología de Venezuela y Ecuador. Maracaibo: Revista de Estudios Interdisciplinarios en Ciencias Sociales

3. Cumbre mundial sobre la Sociedad de la Información (2004) Construir la sociedad de la información: Un desafío global para el nuevo milenio. Ginebra.

4. Ley Nº 1834. Diario Oficial de la República de Colombia, Bogotá, Colombia, 23 de mayo de 2017.

Tareas 15-02

TALLER MÉTODOS AVANZADOS

MAPA MENTAL CON GITMIND

Iniciando con el ejercicio realizado de mapa mental, las posibilidades de ver los diferentes elementos de la investigación en un mismo espacio, permitió crear lazos, generar relaciones, y transformar ciertos elementos en relación a otros.

Inicialmente el “propósito” fue el elemento más claro que surgió de este ejercicio y derivó en los “objetivos”, este “propósito” creció al verse enfrentado a las “teorías principales”. Los “objetivos”, se fueron transformando frente a las “metodologías” y los “participantes”.

Poner las diferentes teorías en un mapa mental, es una gran herramienta que usamos el semestre pasado para construir el estado del arte, ya que permite ver una progresión en las teorías y escuelas estudiadas para responder por el “propósito”. Permite pensar en términos de los intereses de este proyecto de tesis, la progresión que pueden tener las escuelas y teorías buscando llegar a tres caminos principales:

El camino del acceso y la libertad en el conocimiento, la educación y la creatividad

El camino de conocer los grandes propietarios del mundo digital y cómo han llegado a serlo.

El camino de conocer las políticas culturales como motor o barrera de desarrollo en la vida de los creadores y las diferentes características que estas pueden tener.

Las metodologías han sido planteadas desde una estrategia mixta que usa métodos cualitativos, cuantitativos y computacionales. En cuanto a los métodos cualitativos, la etnografía será central ya que nos permitirá acercarnos a los seres humanos detrás de las políticas culturales, morales, comerciales y penales. Los métodos cuantitativos nos permitirán conocer el comportamiento económico de diferentes políticas públicas en la vida real. Y finalmente el método computacional nos permitirá ver el desarrollo en las infraestructuras digitales en manos de algunos creadores y circuladores colombianos.

Finalmente es importante hablar de los participantes. La plataforma pública de distribución digital de cine Retina Latina es un caso fundamental por ser una propuesta de múltiples países de América latina, por estar alimentada con lo mejor del cine abierto de la región y por haber presentado un crecimiento exponencial durante la pandemia. El movimiento de bibliotecólogos de Colombia ha sido fundamental para el desarrollo de las políticas del conocimiento abierto en el país. Bibliored, la biblioteca digital de Bogotá y en general los archivistas y bibliotecólogos han demostrado que abrir las bases de datos es un elemento fundamental para el desarrollo del país. El Picó Imperio es una propuesta independiente de Cartagena que ha podido desarrollar un modelo de negocio en lo físico, de éxito. El año pasado con la pandemia, se vieron en la obligación de pensar sus fiestas en el mundo digital haciendo unas propuestas innovadoras. Los documentalistas son creadores que están a la deriva entre un modelo de negocio que se fundamenta en lo importante del cine documental para la sociedad y algunos creadores que han podido entrar al mundo del cine comercial. Finalmente, de los estudiantes de la Javeriana saldrá la muestra de consumidores donde podremos ver la otra parte del proceso de circulación de los productos culturales y que se divide de la propuesta que realizan creadores y circuladores y el consumo, apropiación y uso final.

GOOGLE TREND

El ejercicio de google trends nos entregó algunos resultados iniciales que deben ser ampliados. Para comenzar uno de los resultados clave fue encontrar en qué países y en cuáles departamentos de Colombia se realizan principalmente búsquedas como “free culture” “open Access” y “derecho a la educación”, donde las dos primeras tienen su mayor búsqueda en países como Zambia, Nigeria, Filipinas o Jamaica y el tercer término se busca en Colombia en departamentos como Putumayo y Sucre.

Es importante resaltar también que las búsquedas principales no son académicas, es decir, las personas no buscan por cultura libre sino por cosas gratis y principalmente cursos gratis, formación gratuita. En un país como Colombia donde la educación se ha considerado un privilegio, la formación se ha convertido en un reto empírico del que han participado mayormente YouTube y la piratería, y no el estado. En el caso de estas búsquedas, Colombia tiene un segundo lugar en habla hispana.

Finalmente es importante ver cómo en las regiones apartadas de Colombia es donde más se buscan términos como convocatoria o economía naranja, lo que podría mostrar el interés de las regiones del país, de hacer parte de las políticas centralistas que pueden permitir un desarrollo económico y social.

En cuanto al término sur global en español y en inglés (global south) es importante resaltar como este término tuvo un crecimiento de búsquedas hacia finales del 2020 de gran relevancia.

GOOGLE NGRAN

Finalmente, las búsquedas en Ngran arrojaron pocos resultados interesantes. Los más importantes de resaltar es que todos los términos de búsqueda tienen un crecimiento que inicia hacia comienzos de los años 90s y muestra un crecimiento exponencial constante. Es importante resaltar que la búsqueda “sur global” no dio ningún resultado.