IA y datos biométricos: ¿la identidad en “hacke”?

25 Agosto 2024

Por Alejandro Urueña y María S. Taboada

Magíster en Inteligencia Artificial./ Lingüista y Mg. en Psicología Social. Profesora Titular de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.

La revista del MIT ha revelado recientemente que el Departamento de Seguridad Nacional (DSH) de Estados Unidos está desarrollando tecnologías de reconocimiento facial para rastrear identidades de niños migrantes a lo largo del tiempo, desde su primera infancia y a medida que maduran y envejecen. Hace referencia a un artículo publicado el 14 de agosto del corriente año por Eileen Guo (The US wants to use facial recognition to identify migrant children as they age) en el que se advierte que el objetivo del proyecto es mejorar los algoritmos de IA sobre datos biométricos. Si bien la información proviene del subdirector de la Oficina de Gestión de Identidad Biométrica del DSH, John Boyd, a la hora de confirmar la oficialidad del proyecto, las respuestas son ambiguas: se advierte que no han comenzado a recopilar datos y al mismo tiempo se señala que la Oficina “lo está financiando” y hasta se ha llegado a negar -luego de la publicación del MIT- que se quieran recopilar imágenes faciales de menores de 14 años.

¿Qué es la recopilación de datos biométricos? Involucra el registro del rostro, las huellas dactilares, el iris, la voz, el ritmo cardíaco, los patrones de respiración, las expresiones faciales. En específico, el reconocimiento facial es el análisis de la estructura del rostro para identificar a una persona. La cámara actúa como un ojo que captura la imagen del rostro convirtiéndola en una señal eléctrica que luego se digitaliza y almacena. El algoritmo emplea aprendizaje automático: extrae las características específicas de ese rostro, las compara con una base de datos e identifica a la persona.

“Consentimiento informado”

Conviene destacar que la recopilación de esos datos requiere de lo que se denomina “consentimiento informado”, es decir, de la aceptación explícita de la persona de quien se tomarán los datos o de sus representantes legales; hecho éste que difícilmente pueda ser llevado a cabo con plena conciencia por un niño y menos aún por un adulto migrante que -como señalan varios investigadores peritos en la problemática de la inmigración- queda atrapado en sus posibilidades de elección: o provee los datos o no cruza la frontera. Es más, observadores de los centros estadounidenses de procesamientos de migrantes -que por razones obvias se escudan en el anonimato- advierten que en todos ellos se realiza recopilación de datos biométricos identitarios. ¿Cuál es el objetivo final que se esconde tras la recopilación de esos datos para perfeccionar algoritmos biométricos?

El empleo de sujetos y comunidades en condiciones socioeconómicas desfavorecidas -migrantes o colonizados- como objetos de investigación para el desarrollo tecnológico no es nuevo ni en la historia de la humanidad ni en la propia de los Estados Unidos.

Conviene recordar algunos hitos particularmente significativos al respecto. A mediados del siglo XIX el Buró de Etnología Americana integró y compiló los estudios sobre lenguas y culturas indoamericanas de EEUU y norte de México. LLevó a cabo una extensa investigación de campo en comunidades originarias para la recopilación de datos culturales y lingüísticos. Tras el aparente objetivo de su reconocimiento cultural y lingüístico, la indagación se encuadraba en la finalidad de demostrar las vinculaciones genéticas entre esas diversas comunidades. El sentido de tal hipótesis puede entenderse en el contexto de la ideología “científica” del darwinismo social que impregnaba buena parte de la naciente etnología decimonónica: la creencia en la existencia de razas inferiores y superiores predeterminadas mental y cognitivamente a partir de sus características biológicas. El “salvajismo” y la “barbarie” de las primeras autorizaba la colonización civilizatoria de las segundas. El desarrollo posterior de una ciencia antropológica sin sesgos racializantes -entre cuyos iniciadores cabe mencionar a F. Boas- reencuadró las investigaciones en la deconstrucción del racismo y la valoración de la diversidad cultural.

En 1964, el presidente Lyndon Johnson inició lo que denominó “guerra contra la pobreza” y promovió el Economic Opportunity Act (Ley de Oportunidades Económicas) cuyo objetivo era precisamente transformar las condiciones de sectores desfavorecidos - principalmente afroamericanos y migrantes- a partir de diversas políticas. La ley, a la larga, favoreció la reducción de la pobreza, pero en muchos casos con fuertes perjuicios identitarios para sus “benficiados”. En el campo educativo se implementaron programas que, basados en la concepción de déficits cognitivos y lingüísticos inherentes a los sectores populares (en boga en ciertas líneas de la psicología y la lingüística estadounidense y británica), extraían del seno familiar durante 8 semanas del verano a los niños de 4-5 años con el objetivo de dar una educación compensatoria y evitar la incidencia “dañina” del entorno de origen. La diferencia era evaluada como carencia, lo que conducía a intentar “cambiar al niño”. Se entendía que los niños de esos sectores fracasaban en su escolarización por sus insuficiencias racionales, cognitivo culturales y lingüísticas y no por las políticas y acciones sociales y educativas. Era necesario entonces enseñarles a pensar y hablar como la “clase media”. Una vez más, los datos que revelaban diferencias legitimaban la colonización social cultural de sus “portadores”.

Y las evidencias podrían seguir multiplicándose. Nuevamente, ¿por qué es necesario compilar datos identitarios biométricos y por qué se utiliza a poblaciones migrantes como conejillos de indias y ahora se pretende poner el foco en los niños? (Conviene aclarar que el artículo de Guo advierte, respecto del último punto, que los datos de reconocimiento facial infantil con que cuenta la IA al presente son limitados y de baja calidad). ¿Por qué no se reconoce oficialmente la ejecución del proyecto? ¿Qué relación tiene este solapamiento con la renuencia de empresas y organismos que desarrollan IA a explicitar sus bases de datos y sus modelos de entrenamiento de los algoritmos?

Identificación por iris

Al respecto, conviene tener en cuenta las campañas que se han realizado y se realizan para compilar datos del iris ofertando una paga a cambio del consentimiento. ¿Es casual que se lleven a cabo en países y sectores que se encuentran atravesando situaciones de crisis económica? ¿Por qué no se informa a quienes se ven compelidos o se prestan a estas manipulaciones que los datos del iris son preciados porque no cambian a lo largo de la vida, constituyen un patrón único y sirven para una identificación automática y altamente fiable de la persona? Las relaciones y objetivos entre las diversas campañas y programas son por demás elocuentes: mantener y fortalecer un orden social y relaciones de poder con estrategias operativas solapadas y ambiguas.

La suma y el entrecruzamiento de los datos biométricos hacen inconfundible la identidad de la persona. Algunos aspectos positivos de estas tecnologías pueden ayudar a la seguridad y prevención del fraude o a la búsqueda de compatibilidades en el caso de soluciones médicas personalizadas. Sin embargo, no parece ser este el objetivo de la recopilación de datos biométricos de migrantes o del seguimiento identitario de niños a partir de tecnologías de reconocimiento facial. Más bien, induce a pensar que se trata de un cambio, con altísima precisión, de “portación de rostro” por “portación de datos biométricos” definidos por un algoritmo, que actualiza con nuevas técnicas una historia milenaria de ideologías y prácticas de racialización. No olvidemos que, como lo hemos señalado insistentemente, los megadatos están frecuentemente sesgados y pueden implicar una categorización discriminatoria del sujeto, avalada por la “eficacia” y “fiabilidad” de la IA.

La limitada regulación de amparo de la identidad integral de los sujetos en la mayoría de los paises frente a los avances de la IA puede conducir a la violación de su privacidad, a su estigmatización y marginación e incluso a la exclusión de sus derechos humanos inalienables.

Comentarios