Reseña/Folgueiras, Pilar (2016) Técnica de recogida de información: La entrevista. Documento de trabajo.

Reseña

Por: Vicky Delgado

Uno de las técnicas metodológicas de mayor vigencia, importancia y usabilidad dentro del enfoque cualitativo es la entrevista, que bien la define Folgueiras como una técnica que permite la recolección de información no solo en procesos investigativos sino como una estrategia o técnica muy útil al margen del ámbito investigativo que permite recoger información sobre personas, hechos, acontecimientos a los que se accede de forma oral y personalizada, y que permite el involucramiento de mínimo dos participantes en el que se ejercen los dos roles básicos en una entrevista: entrevistado y entrevistador.

Pilar Folgueiras describe de manera detallada criterios y tipologías mediante los cuales hace una clasificación de esta técnica de investigación de acuerdo al número de personas que intervienen (individual-grupal), el momento de realización de la misma (inicio, desarrollo, final) y el grado de estructuración (estructurada, semiestructurada y a profundidad).

De acuerdo con Folgueiras las entrevistas independientemente de su tipología se enmarcan dentro de unas etapas fundamentales para su realización, cuyos pasos y e insumos están supeditados a los propósitos de la entrevista, arrojando con ello dimensiones temáticas y en lo sucesivo los elementos que definirán su diseño, aplicación y análisis.

Dentro de la investigación cualitativa los distintos tipos de entrevistas a los que se refiere Folgueiras resultan pertinentes y apropiados en tanto las características de cada tipología y el grado de estructuración de las mismas, ofrecen versatilidad y flexibilidad en relación a las necesidades y fines de investigación, así como a su uso táctico o estratégico según corresponda.

 Las entrevistas estructuradas atraviesan una etapa previa de planeación que incide no solo en la etapa de aplicación sino en el análisis y sus resultados se aproximarán de manera más concreta a la respuesta de interrogantes previamente definidos y específicos que orienten la organización y sistematización de la información.

A diferencia de la estructuración completa, las entrevistas semiestructuradas resultan muy convenientes de acuerdo a las definiciones y características que refiere la autora en cuanto a dejar abierta la posibilidad a la formulación de preguntas no previstas en el guion y a llevar un ritmo dialógico que permite alterar el orden de los interrogantes desde una actitud abierta y flexible por parte del entrevistador.

El tercero de los formatos de entrevistas a los que se ha referido Folgueiras como lo es la entrevista a profundidad podría percibirse en cierta forma mucho más abierta y flexible que la semiestructurada y en cierto modo podría correrse el riesgo de denotarse improvisada o inapropiada, pues es de gran importancia la preparación previa del investigador incluso para saber qué preguntar y cuando hacerlo o no, según sus intereses y la perspectiva participante del entrevistado.

A mi modo de ver en este tipo de entrevista si bien se genera una relación dialógica entre iguales que posibilita de manera amplia y abierta la comunicación y no jerarquiza la relación entrevistado-entrevistador, puede dejar vacíos en la generación y calidad de la información, supeditados al criterio subjetivo de los participantes de la entrevista indistinto sea su rol, puesto que cada uno jugará de acuerdo a sus intereses, juicios de valor, opiniones, certezas e incertidumbres, lo cual no es factible de controlar, en tanto el grado de confianza y familiaridad entre los sujetos participantes podría restar profesionalismo y rigurosidad de no encontrar el equilibrio.

Para concluir, el papel del entrevistado o los entrevistados es decisivo en la entrevista, desde la etapa de preparación, su elaboración, aplicación hasta en el análisis de resultados a cargo del investigador o entrevistador, puesto que el sujeto entrevistado representa más que una fuente de información, un actor participante de la entrevista así el tratamiento de la investigación o los resultados de la información en la que concurra no lo reconozcan como tal; así mismo, es fundamental la definición de objetivos en una entrevista, pues a partir de estos se orientarán los núcleos temáticos y se definirán las tipologías, criterios y aplicabilidades propias de cada etapa.  

Análisis del corpus lingüístico sobre comunicación comunitaria

Con el propósito de analizar términos e incidencia en el objeto de estudio que hemos elegido desarrollar a lo largo del estudio doctoral, para este ejercicio de Voyant Tools se escogió tres corpus de fuentes secundaria la cuales giraron entorno a tres ejes: comunicación comunitaria, comunicación comunitaria, política y ciudadanía y modelos de comunicación comunitaria.

El resultado de este corpus para el análisis de los datos obtenidos en esta herramienta dio lo siguiente:

En el cirrus podemos evidenciar que los datos que mas destacan son: comunicación, medios, comunitaria, modelo, comunidad.

Nivel de tendencia se evidencia en el siguiente orden: comunicación con 165, medios 145, comunitarios 79, comunidad 56, participación 40.

Las frases que más se identifican en los datos se evidencia:

https://voyant-tools.org/?corpus=f348b034deb999049f65b9d50c91011d

Autores:

Krohling, Chaparro, Torrico, (2019). Comunicación comunitaria, políticas y ciudadanía. Ecuador: Ciespal.

Ladino, C. Prada, R. Rodríguez, J. (2020). Hacia un Modelo de Comunicación Comunitaria para el Pos-acuerdo. Caso: región del Ariari, Colombia.

Ramírez, M. (2019). La comunicación comunitaria en Ecuador. Madrid-España.

Reseña | Coding Places: Software Practice in a South American City

Coding Places: Software Practice in a South American City. Por: Yuri Takhteyev. Cambridge, Mass.: MIT Press, 2012. Pp 257

Las prácticas de software son sistemas de actividades en donde las formas colectivas de hacer y decir reflejan el hecho de que operaciones puramente técnicas —tales como programar— se llevan a cabo dentro de mundos sociales compuestos por personas, ideas y objetos vinculados a significados compartidos y proyectos conjuntos. A partir de un enfoque etnográfico y basándose en la teoría de la estructuración de Giddens1, Yuri Takhteyev en su libro Coding Places: Software Practice in a South American City busca abordar un amplio espectro de interrogantes fascinantes: ¿por qué las prácticas de software son notablemente similares alrededor del mundo? ¿por qué los desarrolladores, independientemente de su contexto geográfico, escriben sus códigos en inglés?  ¿por qué los desarrolladores de software utilizan tecnologías de empresas monopólicas incluso cuando existen alternativas locales viables? ¿por qué las biografías personales de los desarrolladores se basan en tropos culturales cosmopolitas como la cultura hacker?

La explicación que Takhteyev da a la homogeneización de las prácticas de software alrededor del mundo recae en una jerarquía cultural núcleo/periferia. Los elementos de las prácticas de software asociados con el núcleo confieren legitimidad tanto a nivel local como global, mientras que los elementos asociados con la periferia operan de manera contraria. Por lo tanto, los profesionales del software de la periferia importan modelos globales de las prácticas del núcleo porque se consideran la forma correcta de hacer las cosas. Sin embargo, este proceso de importación no es automático. Takhteyev usa las ideas de Giddens sobre la reincorporación y la desincorporación para describir cómo los profesionales de la periferia adaptan los modelos globales a los contextos locales (reincorporación) y buscan la legitimidad dentro de la comunidad global del software expulsando lo local en sus práctica (desincorporación). La idea de Takhteyev es que la universalidad aparentemente natural de las prácticas de software sólo se consigue mediante el trabajo de los profesionales periféricos que reconcilian los modelos globales de la práctica con las diversas limitaciones de su contexto local.

En Coding Places, Takhteyev recurre a los métodos de observación participante y entrevistas para documentar cómo los desarrolladores de software de Río de Janeiro improvisan soluciones ad hoc para insertarse en las dinámicas globales. Por ejemplo, si un ingeniero de Río quiere aprender Lua (software de origen Brasileño) tendrá que estudiar un manual escrito en inglés, alemán o coreano porque no hay traducción al portugués, sin importar que el mismo equipo brasileño que inventó el lenguaje también sea se encargue de su mantenimiento o que incluso uno de ellos haya escrito el manual original. De hecho, la forma más fácil de obtener una copia es pedirla en Amazon.com y que sea enviada desde Estados Unidos. Esto se debe a que la lengua franca de la programación de software es el inglés y sus estándares culturales son los de Silicon Valley. Además de las obvias desventajas materiales y culturales, este hecho también significa que los desarrolladores de Río se esfuercen por expulsar de sus prácticas de software las huellas de lo local. Por ejemplo, los programas que buscan el éxito internacional deben documentarse exclusivamente en inglés, al igual que los foros de discusión que los soportan. Por otra parte, la mayoría de los estudiantes universitarios asumen que el software local es atrasado, inútil o irrelevante a la hora cultivar habilidades necesarias para entrar a las bolsas de trabajo globales. Estos esfuerzos por borrar las huellas de lo local contribuyen a menudo a una mayor marginación y a acentuar estas la brecha entre el núcleo y la periferia.

Este libro ofrece un estudio de caso que ha sido elegido estratégicamente para ilustrar lo que Yakhteyev denomina un «lugar equivocado» para el desarrollo de software. El libro cumple con su objetivo de criticar agudamente las opiniones convencionales sobre las prácticas del software. Su contribución es mostrar cómo la homogeneización a nivel global se logra mediante la desincorporación y la reincorporación del trabajo periférico a nivel local. Debido a que su argumento es ineludiblemente sociocultural, el libro es relevante para los estudiosos de la ciencia y la tecnología, para los investigadores de las presiones de la globalización sobre actores periféricos, o para aquellos interesados en la producción de software en Latinoamerica.

1 Giddens, A. 1984. The Constitution of Society: Outline of the Theory of Structuration. Berkeley, CA: University of California Press.

El Antropoceno y la geopolítica del conocimiento: explorando nuevos términos para una nueva época geológica

Hace 20 años Paul Cruzten presentó la hipótesis del Antropoceno en un sucinto artículo titulado «Geología de la humanidad» publicado en la revista Nature. En esta publicación, el ganador del premio Nobel de química, sugirió que los seres humanos se han convertido en una fuerza geológica tan poderosa que es necesario designar una nueva época para describir con precisión el impacto ambiental y geológico producido por la especie humana desde el inicio de la industrialización; cambio que ha alterado significativamente el estado del Sistema Tierra propio del Holoceno. El Antropoceno es un término científico ampliamente popularizado y en la actualidad es usado no solo por comunidades científicas, sino también por el público en general y los medios de comunicación. Aunque el Antropoceno no sea una unidad formalmente definida dentro de la escala de tiempo geológico (oficialmente seguimos viviendo dentro de la Edad Megalayense del Holoceno superior), existe un amplio consenso de que la Tierra ha cambiado radicalmente su estado a causa de las crisis ambientales de origen antropogénico.

La gran acogida del Antropoceno ha abierto nuevas discusiones. Un problema inicial con el término se encuentra en su raíz etimológica: el uso de anthropos, del griego antiguo «hombre» o «ser humano», sitúa a nuestra especie en su totalidad como principal responsable de esta nueva época geológica. De esta manera, el Antropoceno opera como un discurso universalizador que tiende a negar la responsabilidad diferenciada y los efectos localizados de los cambios geológicos que designa. Esta narrativa resulta problemática porque evita la politización de la agencia en los conflictos socioecológicos e impide que se tengan en cuenta las políticas de igualdad y la responsabilidad histórica a la hora de abordar los cambios medioambientales. Desde esta perspectiva podríamos preguntarnos: ¿por qué se debe responsabilizar a toda la humanidad del cambio climático cuando el Norte Global ha emitido una cantidad desproporcionada de emisiones de carbono en los últimos tres siglos a expensas de la sobreexplotación de recursos en el Sur Global?

Este debate ha dado lugar a varios conceptos alternativos que reflejan una reacción crítica a las narrativas universalistas, una rápida economía discursiva relacionada con los problemas ambientales y una vitalidad terminológica que se prolifera fuera del canon. Con un interés exploratorio, quise saber qué tanta acogida han recibido estas nuevas propuestas. Para dicho propósito, mapeé la distribución global de las búsquedas en Google de los términos Capitalocene, Chthulucene, Plantationocene, Misanthropocene, Necrocene y grafiqué la ocurrencia de los mismos en el corpus de libros de habla inglesa que provee Google Books Ngram Viewer. Estos fueron los resultados de dicha exploración.

La Figura 1 muestra la distribución global de las búsquedas en Google de los términos de interés durante los últimos cinco años. Capitalocene es el término con mayor frecuencia de búsqueda y su distribución se extiende por Norte América, Latinoamérica y Europa Central. El Chthulucene es el segundo término en liderar la lista y la distribución geográfica de su frecuencia de búsqueda corresponde a Estados Unidos y al Reino Unido. Los terminos Plantationocene, Misanthropocene y Necrocene solo cuentan con datos suficientes para Estados Unidos.

La Figura 2 muestra el desglose de la distribución de las frecuencias de búsqueda para los países más representativos mostrados en la Figura 1. Estados Unidos es el único país con datos de búsqueda para los cinco términos, seguido por el Reino Unido con frecuencias de búsqueda para Capitalocene y Chthulucene. Los demás países en la lista solo registran búsquedas de Capitalocene.

La Figura 3 muestra la ocurrencia de los unigramas en el corpus de libros de habla inglesa que provee Google Books del 2002 al 2019. La ocurrencia de los unigramas en el corpus coincide con los resultados de las búsquedas de los términos en Google. El Capitalocene es el unigrama que apareció primero en el corpus analizado (2010) y cuenta con una mayor ocurrencia seguido por los unigramas Chthulucene (2010), Plantationocene (2012)y Misanthropocene (2013), respectivamente. No se encontraron datos sobre la ocurrencia del unigrama Necrocene, esto puede deberse a que su aparición sucedió después del 2019, quedando por fuera de la ventana temporal del corpus seleccionado.

Realicé este mismo ejercicio exploratorio para las variantes de los términos en español (Capitaloceno, Chthuluceno, Plantacionoceno, Misantropoceno, Necroceno) en Google Trends y Google Books Ngram Viewer, sin embargo, no se contaba con los datos suficientes para el análisis. Estos resultados son de especial interés si consideramos que las nuevas terminologías, a pesar de presentarse como una reacción crítica a la narrativa universalista que impone el Antropoceno, reproducen la misma geopolítica del conocimiento donde el Sur Global queda subrepresentado.

A pesar de la insuficiencia de los datos provistos por Google para las nuevas terminologías, decidí no quedarme de brazos cruzados y mapeé la distribución de las frecuencias de búsqueda de Anthropocene y Antropoceno a escala global y local (Figura 4). Como era de esperarse, a escala global, la frecuencia de búsqueda de Anthropocene fue mayor en el mundo angloparlante y la frecuencia de búsqueda de Antropoceno fue mayor en el mundo hispanohablante. No obstante, a escala local, estas divisiones geopolíticas no son tan obvias y nos permiten explorar patrones de bilingüismo y acceso a la información al interior de un mismo país. En el caso colombiano, por ejemplo, el interés de búsqueda del término Anthropocene se concentra en Bogotá D.C, mientras que las búsquedas de Antropoceno se distribuyen en los departamentos de Tolima, Cundinamarca, Antioquia, Santander, Atlántico y Valle del Cauca.

Laboratorio (Luisa Roa)

¿Cuáles son las palabras más populares relacionadas con su investigación?

Hice mi búsqueda en español e inglés.

Español: paisaje sonoro, arte sonoro, ecología, tecnología, ecoacústica.

Las más populares en español fueron arte sonoro y ecología.

En inglés: soundscape, sound art, artists, ecology, technology

Las más populares fueron soundscape y artists.

¿En qué regiones de Colombia o el mundo?

De podría afirmar que los terminos Arte sonoro y ecología fueron más populares en Bogotá y Medellín.

En Medellín lo deduzco porque actualmente El Museo de arte Moderno de Medellín tiene la única sala en todo el país dedicada al arte sonoro.

Soundscape y artists, fueron populares en Florida, el distrito de Columbia, New Hampshire

Maryland y Maine

¿Qué les dicen estas tendencias sobre su problema de investigación?

Me indica que los tópicos alrededor de los que estoy trabajando no son tan buscados y reconocidos en Colombia, a excepción de ciudades como Bogotá y Medellín. Deduzco que este fenómeno se debe a que en estos dos lugares es donde extisten más espacios y discusiones al rededor de prácticas sonoras contemporaneas.

La mayor parte de la bibliografía que se puede encontrar sobre los temas de mi investigación están en inglés. En ningún momento encontré bibliografía en español que se refiriera al paisaje sonoro, al arte sonoro en Latinoamérica o Colombia y menos relacionado con la ecología.

Modelo de intervención integral en comunicación comunitaria: monitoreo de palabras claves.

Con el propósito de conocer el nivel de impacto de las palabras que giran en torno a la investigación de comunicación comunitaria para el fortalecimiento del tejido social, se utilizó la herramienta google trends, que nos permitió conocer la incidencia de los siguientes términos: comunicación comunitaria, organización, minga, seguridad y participación. Todas estas monitoreadas en la provincia del Guayas en los últimos 90 días.

A continuación mostraré los gráficos para ir describiendo los resultados:

De acuerdo al monitoreo realizado a las 5 palabras que giran entorno a nuestro tema de investigación. Podemos ver que en las ciudades donde se mencionan son: Buena Fé, Salitre, Naranjito, Balzar y Marcelino Maridueña. Lo que no evidencia la ciudad de contexto geográfico que hemos tomado para realizar el modelo de comunicación.

La palabra que más se menciona es seguridad que tiene el siguiente porcentaje: Buena fé el 67%, Naranjito el 50%, Balzar el 36%, Marcelino Maridueña el 31% y Salitre con el 27%.

En segundo lugar de la palabra más mencionada se sitúa organización obteniendo el siguiente resultado: Buena fé el 33%, Salitre 33%, Naranjito 31%, Balzar 28%, y Marcelino Maridueña el 25%.

En tercer lugar se ubica la palabra participación con el siguiente dato: Marcelino Maridueña 44%, Salitre 40%, Balzar 36%, Naranjito 19%.

Como pueden evidenciar en el gráfico, la palabra comunicación comunitaria y minga, no tienen ningún porcentaje de mención en el tiempo escogido para monitorear.

Como pueden dar cuenta, las personas mencionan más las palabras: seguridad, organización, y participación. Esto evidenciando la realidad de lo que vive país y en especial la ciudad de Milagro, pero no mencionan la comunicación comunitaria ni minga, como dinámica de una interacción común entre el sujeto-sujetos.

De la misma manera, con la intención de verificar teorías que hablan acerca de los temas que hemos elegidos, se utilizó la herramienta Google n-gram, en la cuál arrojó los siguientes resultados:

Taller Semana 1. Patrimonio vivo en el Centro Histórico de Bogotá: Voces de las comunidades tradicionales

ABSTRACT

En el Centro Histórico de Bogotá (declarado como bien de interés cultural de la nación) emergen esfuerzos institucionales y comunitarios encausados a la salvaguardia del patrimonio cultural, inmersos en procesos dinámicos y complejos de transformación social, económica, política y cultural que generan diferentes tensiones, contradicciones y conflictos, entre ellas, el desplazamiento de la población residente y tradicional con menor capacidad adquisitiva, cuyo fenómeno insta a reconocer la importancia de su permanencia en el lugar y a analizar cómo inciden las comunidades tradicionales en la salvaguarda del Centro Histórico de Bogotá.

https://gitmind.com/app/doc/4438502968Copy

De la comunicación tradicional a la Computacional: métodos, desafíos y oportunidades.

RESEÑA:

De la comunicación tradicional a la Computacional: métodos, desafíos y oportunidades

Wouter Van Atteveldt. & Tai-Quan Peng. Cuando la comunicación se encuentra con la computación: oportunidades, desafíos y trampas en la ciencia de la comunicación computacional. Published online: Communication Methods and Measures Volumen 12. Abril 20 de 2018. Págs. 81 – 92. Recuperado de: httpps//doi.org/10.1080/19312458.2018.1458084

“Estamos en la cúspide de una nueva era en las ciencias sociales computacionales” (Wallach, 2016 ).

En esta publicación los autores, Wouter Van & Tai-Quan junto a sus colaboradores concentran inicialmente su atención en tres importantes desarrollos derivados de la comunicación computacional con el propósito de brindar una visión general del estudio que se ha hecho sobre la comunicación utilizando métodos computacionales, sin dejar de lado; ventajas y desafíos de esta metodología, beneficios y limitaciones potenciales a los que se enfrentan los académicos que utilizan dichos métodos.

Se destacan tres desarrollos:

  1. El gigantesco crecimiento de datos fácilmente accesibles desde redes sociales, archivos web, periódicos digitales y similares (p. ej., Weber, 2018 ).
  2. Herramientas mejoradas para analizar datos. El modelado de temas, incrustaciones de palabras y métodos sintácticos.
  3. El surgimiento de un poder de procesamiento eficaz y económico, de una infraestructura informática fácil de usar para procesar datos, una nube científica y comercial. Plataformas. Nuevos conjuntos de datos con artefactos de comunicación como tweets, publicaciones, correos electrónicos incluso; nuevos métodos para analizar la estructura y dinámica de la comunicación humana”.

En este artículo, el reconocido profesor de Comunicación Política en Vrije Universiteit, Amsterdam, Wouter van Atteveldt; Cofundador de la división de Métodos Computacionales de la Asociación Internacional de Comunicación y Editor Jefe Fundador de Computational Communication Research. Autor; de varias investigaciones y publicaciones sobre métodos innovadores para analizar textos políticos afirma; que estos desarrollos muestran el progreso sin precedentes de las ciencias de la comunicación; siempre que se superen los desafíos técnicos, sociales y éticos que presentan los mismos. Wouter & Tai sostienen que los métodos computacionales tienen el potencial de cambiar radicalmente nuestra disciplina”. “Por supuesto, los métodos computacionales no reemplazan los enfoques metodológicos existentes, sino que los complementan”.

“En la actualidad, es posible observar metodológicamente la reacción diaria de las personas frente a los estímulos en su entorno real, en lugar de hacerlo en un laboratorio artificial (Barabási, 2016 )”. “Por ej. el consumo de noticias en tiempo real combinado con datos de encuestas facilita una medición más sofisticada del consumo de noticias y sus efectos” (Bodo et al., 2017 ; Guess, Nyhan, & Reifler, 2018 ; Kobayashi, Boase, Suzuki y Suzuki, 2015). El tamaño de la muestra puede pasar fácilmente de la “n” pequeña a la “N”grande con mayor facilidad. De hecho, los datos digitales y las herramientas computacionales facilitan el compartir y el reutilizar estos recursos; acercan la investigación cuantitativa y cualitativa y mejoran nuestra comprensión de los datos y construcción de la teoría. Hazel Know y sus colegas abordan los sesgos de muestreo en la investigación digital y demuestran cómo el aprendizaje automático supervisado puede reducir el sesgo de muestreo inducido por la “desigualdad de población de proxy” en Twitter.

Vale la pena, leer detalladamente el artículo “Cuando la comunicación se encuentra con la computación: oportunidades, desafíos y trampas en la ciencia de la comunicación computacional” ( Wouter Van Atteveldt. & Tai-Quan Peng. 2018); para no emitir un juicio a priori, ni ser engañados por nuestra propia percepción. El artículo deja claro que “ejecutar un método en una computadora no lo convierte en un “método computacional”: de hecho; “los estudiosos de la comunicación han utilizado computadoras para realizar sus estudios durante más de medio siglo” (p. ej., Nie, Bent y Hull, 1970 ; Stone, Dunphy, Smith y Ogilvie, 1966 ).

Indudablemente, la utilización de los métodos computacionales por parte de los investigadores de la comunicación ha revolucionado la forma de hacerle seguimiento al comportamiento social de cara al big data, consumo de noticias en tiempo real, reacciones y aptitudes de los individuos ante las redes; donde lo importante de big data no es la gran cantidad de datos (estructurados y no

estructurados) que abundan en una compañía a diario sino, cómo manejar esa información para conseguir directrices válidas que conduzcan a una mejor toma de decisiones y acciones estratégicas.

En buena hora, los métodos computacionales, complementan y facilitan los estudios sobre el comportamiento social de una manera eficaz y quizá sin mayor costo; pero también es cierto; que se convierten en un artefacto privilegiado que puede vulnerar y manipular la intimidad y privacidad del individuo que deja su huella a diario en las redes sin prever que está siendo objeto de estudio sin ser consciente de ello. Esto supone dilemas éticos bastante importantes para el periodismo investigativo computacional (Díaz Campo J & Chaparro D. M. Angeles 2020). Considero que es necesario revisar los códigos deontológicos de la profesión, por ello sugiero leer y analizar con lupa este tema bien justificado por Wouter, Tai y sus colaboradores. No es que esté en desacuerdo con el uso de estos métodos, pero sí debería analizarse más de cerca hasta qué punto se violan algunos principios como el respeto a la privacidad, la objetividad, la autoría de los datos y la validez del análisis y resultados de esos datos.

Se ha producido un cambio revolucionario en la manera de escribir la información, de almacenarla y comunicarla. La información digitalizada es más mediatizada y a su vez genera cambios en la sociedad en tiempo real. Modifica comportamientos, estilos de vida, formas de trabajo y hasta los valores socioculturales. Todo esto conlleva a una nueva cultura planetaria basada en el desarrollo y oportunidades al compartir información en las redes. Hemos llegado a una época donde el desarrollo científico y tecnológico demuestra que estamos avanzando en la integración de los seres humanos hacia una concepción más global de la humanidad, no obstante; es necesario estar alerta sobre su uso, al final vivimos en un momento histórico donde todo lo bueno es malo y lo malo resulta ser bueno; lo normal es anormal y lo anormal resulta ser normal.

En conclusión; este artículo llama la atención para mirar más de cerca los métodos computacionales disponibles para la investigación de la comunicación. Como lo afirma Matthew Weber ( 2018 ), miembro de Rutgers’ Net SCI Network Science lab y profesor de Communicación “el desafío para los investigadores de la comunicación es evaluar la calidad y representatividad de los datos y luego evaluar la validez externa de sus hallazgos derivados de dichos datos. Trabajar con agencias de financiación y proveedores de datos, como editores de periódicos y plataformas de redes sociales abiertas, para que los conjuntos de datos estandarizados estén disponibles a todos los investigadores y no ser sesgados”. El que los datos sean grandes no significa que sean representativos de una determinada población; lo que lleva a un sesgo de muestreo que debe manejarse con cuidado en los estudios empíricos.

Finalmente es necesario invertir en habilidades, infraestructura e instituciones (Jagadish et al., 2014 ; Wallach, 2016 ); compartir métodos y datos computacionales para salir del analfabetismo computacional. Cada vez es más importante que, como profesionales, seamos expertos en el manejo de datos y herramientas computacionales, así resultará más fácil y eficaz la tarea.

BIBLIOGRAFÍA

Díaz-Campo, J., & Chaparro-Domínguez, M.- Ángeles. (2020). Periodismo computacional y ética. Revista ICONO 14. Revista Científica De Comunicación Y Tecnologías Emergentes, 18(1), 10-32. https://doi.org/10.7195/ri14.v18i1.1488

Tendencias del dibujo analítico

El uso de la herramienta de Google trends bajo los términos o palabras claves:Building Information Modeling, digital craft, conceptual drawing, analytical drawing, digital design, durante los últimos 5 años en EE.UU, Alemania y Brasil arrojo como tendencia un uso relevante de la palabra “digital design” en todos los análisis de las diferentes ciudades pero con mayor tendencia en los EE.UU, de igual manera este último país presenta incidencia de todas las palabras, mientras que los otros dos países es limitado el numero de tendencias de palabras como digital craft, conceptual drawing, analytical drawing.

La herramienta Google Books Noam Viewer presento tres resultados de búsqueda en un rango de fecha de 1990 al 2019 y términos solo en ingles, en temas que tuvieran los siguientes rangos de palabras.

  1.  Information Modeling, digital craft, conceptual drawing, analytical drawing, digital design

Como resultado se encuentra una fuerte tendencia en el tema del Building Information Modeling.

El segundo filtro utiliza las palabras de los software relevantes en el dibujo analitico Autocad y Revit, manteniendo en los ultimos años mayor relevancia el tema relacionado con revit.

El tercer filtro utilizo plataformas que trabajan con software de diseño, manteniendo un destacada tendencia en Apple y Microsoft.

Dibujo analítico análogo

Los procesos de pensamiento analítico, gráfico y proyectual en arquitectura, han tenido el uso de estrategias gráficas comunicativas tradicionales por medio de dibujos esquemáticos, dibujos de viaje etc. usando herramientas artesanales como el lápiz y el papel, ellos están luchando por mantenerse en un mundo donde la tecnología propone el uso de software y hardware parametrizado ágil y eficiente, avalado por la necesidad mediática de construcciones que priorizan procesos logísticos y de programación, propuesto en el diseño paramétrico.

https://gitmind.com/app/doc/b2b8622813?lang=es