Aunque muchos especialistas vaticinan un futuro catastrófico en el que nadie logra controlar el avance de las inteligencias artificiales, en el presente tampoco la tenemos nada fácil. Sin importar la innovación tecnológica, hay un punto que no debemos pasar por alto: todas las IA son creadas por humanos, por lo tanto, la culpa de que en el proceso se cuelen algunas “malas enseñanzas” recae sobre nosotros. ¿Qué tan progresista puede resultar un algoritmo si reproduce prejuicios de género?
A mediados de año, la Unesco lanzó Women4Ethical AI: una plataforma colaborativa cuyo objetivo es garantizar que las mujeres estén representadas equitativamente tanto en el diseño como en la puesta en marcha de la inteligencia artificial.
Según su último informe -“Inteligencia Artificial e Igualdad de género”- las mujeres se encuentran infrarrepresentadas en muchas de las nuevas tecnologías digitales. “Las necesidades y experiencias femeninas son pasadas por alto por alto por los diseñadores. Además, es notable la brecha de género que existe en las contrataciones para el desarrollo de IA. Solo el 20 % de los empleados en puestos técnicos de las principales empresas de Aprendizaje Automático (machine learning) son mujeres”, indica el documento.
A esta realidad se le suma una cifra igual de lamentable, en las grandes compañías tech existe apenas un 6 % de investigadoras que se dedican al desarrollo de softwares.
La trampa
Los problemas no acaban con el techo de cristal que impide a las profesionales escalar en sus carreras técnicas, informáticas o de ingeniería.
“Actualmente estamos en un momento decisivo para exigir que se aplique la perspectiva de género en el plano digital y se empiece a sancionar a las empresas que crean inteligencias artificiales a partir de información sexista”, introduce Rocío Uhrig, magíster en Big Data.
Para que una IA funcione (por ejemplo, ChatGPT, DALL-E o Midjourney) sus desarrolladores deben “entrenarla” de antemano con inmensas cantidades de datos que se sacan de internet o un archivo específico. Gracias a estas referencias los programas logran responder a nuestros pedidos (hacer textos o imágenes, resumir documentos, sacarnos dudas, etcétera) de manera inmediata.
“Los datos con los cuales es educado cada algoritmo o dispositivo depende de sus programadores y la empresa. Sin embargo, en general suelen ser definidos por hombres que viven en las capitales de países desarrollados y comparten una visión y educación parecida. ¿A qué conduce esto? al final la realidad que se le muestra a las IAs es un reflejo de las vivencias e intereses de sus gestores”, advierte.
Ahí es cuando aparecen los sesgos de género. La información guardada puede provocar que dichas tecnologías avalen y repitan mensajes discriminatorios, estereotipados o estigmatizantes. “Un mal estudiante también es el resultado de un mal docente”, añade Uhrig.
Alzar la voz
Revertir el panorama resulta complicado debido a la falta de transparencia en los procesos de diseño, aprendizaje y lanzamiento de las IA. Además de carecer de regulaciones internacionales (apenas existen recomendaciones éticas que hacen “mucho ruido y pocas nueces”) que permitan frenar de forma efectiva cualquier avance malicioso.
“Uno piensa que por la fama que tienen algunas mega empresas (Microsoft, IBM, Apple, Meta, OpenAI) sus datos son objetivos. E incluso podemos comprobar que al preguntar sobre un tema complicado, hay algoritmos, programas o chatbots que ofrecen muy buenas respuestas categóricas; adecuadas para las personas inquisitivas”, formula la analista en sistemas Estefanía Serrano.
Gran error. “Aún sin buscarlo, inconscientemente, la información tiene un posicionamiento y hay temas con los cuales no se puede ser tibio. ¿Quién nos asegura que los programadores no escogen deliberadamente para consultas sobre la procreación, la sexualidad femenina, los anticonceptivos, el matrimonio, el aborto, entre tantos otros tópicos solo datos que se adecuan a su pensamiento?”, indaga.
Fracasos para recordar...
- En 2022: en las redes sociales se viralizaron las críticas a una IA llamada Lensa, que creaba retratos artísticos (con diversos estilos) a partir de varias fotos personales. Mientras a los hombres les devolvía imágenes divertidas y acordes con su aspecto físico, las mujeres que la utilizaban obtenían resultados sexistas y racistas. Por ejemplo, aquellas con piel u ojos oscuros recibían a cambio ilustraciones con una tez blanca y una estética europea. Además de mostrar a las usuarias con menos ropa, prendas ajustadas o pechos grandes.
- En 2016: Microsoft lanzó en Twitter una inteligencia artificial llamada Tay. A través de un perfil exclusivo, los usuarios podían conversar con esta tecnología. El problema apareció a las pocas horas, cuando las respuestas de Tay empezaron a volverse racistas, xenófobas y sexistas. Entre ellas, hubo mensajes a favor del genocidio y de Hitler o en contra del feminismo. El revuelo que causó su viralización hizo que finalmente la compañía deba eliminar esta IA.
- En 2014: Amazon implementó un sistema de inteligencia artificial para filtrar y buscar nuevos trabajadores. Como base de datos el programa utilizó los perfiles de las personas que habían solicitado empleo en la empresa en los últimos 10 años. ¿El resultado? La herramienta aprendió que para llenar los puestos vacantes eran preferibles los hombres; por lo tanto rechazó los CV que incluyeran la palabra mujer para cualquier puesto técnico o dedicado al desarrollo de software.