Dimensiones narrativas de un objeto de estudio relacionado con el uso de IA y datos grandes

El tema que escogí es el uso de tecnologías de reconocimiento facial en China con el que se perfilan minorías étnicas Uighurs musulmanas[1]. Este perfilamiento tecnológico sirve como un sistema de alarma criminal en China para las autoridades policiales, y, en consecuencia, como un sistema de represión basado en aspectos raciales. El discurso político subyacente al sistema de inteligencia artificial relaciona rasgos físicos con supuestos potenciales ataques terroristas o violencia étnica, y hace parte de un sistema de represión más amplio que involucra el autoritarismo y la violación de derechos humanos en campos de “re-educación”.

Desde mi punto de vista, estos sistemas de clasificación usados en China (y de formas similares en otras partes del mundo) para controlar a la población corresponden con una narrativa maestra que podríamos llamar “criminológica”. Tal narrativa supone que a través de la apariencia física de una persona se puede llegar a conclusiones acerca de los rasgos de su personalidad. Esta creencia, muy difundida socialmente, se soporta en el sistema de análisis que en algunas de las lecturas que hemos hecho denominan “encontrar proxies”[2]. Es decir, obtener conclusiones estadísticas, pero no por una observación directa del fenómeno que se quiere estudiar, sino por para-fenómenos aproximados. El método proxy es una aproximación indirecta y por lo tanto altamente riesgosa, en términos de sesgos, de categorizar a una población, pues puede continuar con estereotipos sociales basados en la apariencia, en los lugares que una comunidad habita, o en sus prácticas culturales. Estos estereotipos soportan un círculo vicioso en el que las comunidades prejuzgadas a través de proxies son revictimizadas y, por lo tanto, se refuerza su categorización criminalizada.

La narrativa maestra criminológica se relaciona con las pseudociencias de los siglos XIX y XX como la frenología, la criminología basada en rasgos faciales, la eugenesia y el darwinismo social. Todas estas prácticas se amparaban en un lenguaje técnico, y en supuestas técnicas empíricas y matemáticas, para defender ideas esencialistas sobre la superioridad de las razas, las clases sociales, o el género. Aunque estas pseudociencias han sido desvirtuadas en el tiempo presente, los sistemas algorítmicos de reconocimiento facial siguen, en principio, las mismas lógicas y por lo tanto son igualmente problemáticas. Así, resulta increíble que prácticas de poder que han sido claramente refutadas se sigan haciendo a escalas aún más grandes, con procedimientos aún más opacos, y con menos oportunidades de auditoría. Incluso, aunque no se usen grandes datos y modelos matemáticos, en Colombia es común que se establezcan relaciones proxies perniciosas entre el estrato social, la raza, la apariencia física, los gustos al vestirse, las formas de hablar, y un sinfín de rasgos superficiales más. El propio gobierno, como sucede en China, estigmatiza a grupos sociales al calificarlos de bandidos o vándalos, y así bloquea su lugar como ciudadanos con sus propias posturas sociales y particularidades culturales. En China, por lo que pude ver en mi rápida búsqueda, los sistemas de reconocimiento facial sirven como un sistema de estigmatización soportado en el discurso tecno-determinista

Para ilustrar este texto, escogí dos imágenes. La primera es una imagen del criminólogo Cesare Lombroso en el que detalla supuestas fisionomías comunes para cuatro tipos de criminales. La segunda es un ejemplo de las llamadas “pinturas de castas” que se realizaban algunos países de América Colonial como México, Perú, Ecuador y Colombia. Estas pinturas de castas servían como una supuesta categorización racial, con ínfulas científicas derivadas de la ilustración, en la que se relacionaba la pertenecía a cierta categoría racial con ciertos rasgos de personalidad.

Imagen 1: Tipología de criminales en el libro El hombre criminal de Cesare Lombroso. Fuente: https://library.artstor.org/#/asset/24726582;prevRouteTS=1621627864116
Un grupo de personas en un evento

Descripción generada automáticamente con confianza baja
Imagen 2: Pintura de castas mexicana. Anónimo. Fuente: https://commons.wikimedia.org/wiki/File:Casta_painting_all.jpg

— Por Sergio Rodríguez Gómez


[1] Paul Mozur, «One Month, 500,000 Face Scans: How China Is Using A.I. to Profile a Minority», The New York Times, 14 de abril de 2019, sec. Technology, https://www.nytimes.com/2019/04/14/technology/china-surveillance-artificial-intelligence-racial-profiling.html.

[2] Ruha Benjamin, Race after technology: abolitionist tools for the new Jim code (Medford, MA: Polity, 2019); Cathy O’Neil, Weapons of math destruction: how big data increases inequality and threatens democracy, First edition (New York: Crown, 2016).

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.