IA: reflejo de nuestras fallas

IA: reflejo de nuestras fallas

Por Federico Lix Klett Oct 19, 2024

Es consultor, comunicador, formador e impulsor de innovación y transformación en las organizaciones.

Narciso, un joven de una belleza tan extraordinaria que todos quedaban hechizados con solo verlo. Pero Narciso era incapaz de amar a otro que no fuera a sí mismo. Un día se detuvo frente a un arroyo cristalino. El agua calma reflejaba su imagen perfecta, y Narciso quedó fascinado, atrapado en la contemplación de sí mismo.

—¿Quién eres tú? —preguntó Narciso al reflejo, aunque sabía que era él mismo. Pero el agua no respondió, solo devolvió su mirada vacía y perfecta. Cada día, Narciso volvía al arroyo, esperando encontrar algo más allá de su propia imagen, pero solo encontraba silencio.

La diosa Némesis, quien vigilaba a los mortales desde las alturas, observó cómo Narciso se consumía en su vanidad. Decidió castigarlo, no por su belleza, sino por su incapacidad de mirar más allá de sí mismo, por su ceguera hacia el mundo que lo rodeaba. Un día, el arroyo dejó de ser un simple espejo; el agua se volvió turbia, y el reflejo de Narciso comenzó a desvanecerse.

—¿Qué está pasando? —se preguntó Narciso, desesperado. Pero ya era tarde. El castigo de Narciso no fue el reflejo; fue su incapacidad de entenderlo y de ver lo que había más allá. Así, consumido por su propia obsesión, Narciso cayó al suelo, y en su lugar creció una flor, la flor del narciso, símbolo de su ceguera y su vanidad.

Al igual que Narciso, que se quedó atrapado en la imagen que el arroyo le devolvía, la inteligencia artificial refleja lo que le proporcionamos. Los modelos grandes de lenguaje (LLM) de IA, como espejos aumentados, toman los datos con los que son entrenados y los reproducen sin cuestionamientos. Esto nos enfrenta a una realidad incómoda: los sesgos y prejuicios humanos se cuelan en las máquinas y son amplificados por ellas. Tal como Narciso no podía ver más allá de su reflejo, la IA no puede comprender más allá de los patrones que ha aprendido. Y aquí es donde el problema se vuelve complejo.

Vamos a empezar sin vueltas: sesgos y prejuicios no son lo mismo, aunque a veces lo parezcan. Mientras que uno es un atajo mental que a veces nos saca de apuros y otras nos traiciona, el otro es un juicio fijo y social que, sin darnos cuenta, arrastramos antes incluso de conocer la realidad. La Inteligencia Artificial, como reflejo aumentado de nuestra propia humanidad, tampoco está libre de estas trampas.

El sesgo: el atajo que nos hace tropezar

El sesgo es un truco evolutivo. Como cuando intentás adivinar la carta del truco y acertás porque viste las señas antes de empezar la mano. Los sesgos, son como un mini Elon Musk, nos ayudan a vivir sin gastar tanta energía mental. Pero, como todo atajo, a veces nos llevan por un camino equivocado.

Por ejemplo el sesgo de confirmación: el que potencia nuestra habilidad de buscar y recordar solo aquello que reafirma lo que ya creemos. No es tanto que queramos estar siempre en lo correcto; es que nuestro cerebro prefiere las respuestas que no le exigen demasiado esfuerzo. Así funcionamos, casi sin darnos cuenta, día tras día.

Los modelos de lenguaje grandes (LLM), como ChatGPT o Gemini, también operan con atajos, aunque en su caso se trate de patrones estadísticos. Si en los datos que utilizan hay un patrón que se repite, lo más probable es que lo sigan utilizando. Entonces, si en el mundo real existen desigualdades y estereotipos, la IA los replica porque eso es lo que ha aprendido. No tiene la “intención” de discriminar; simplemente ve un patrón y lo perpetúa.

Prejuicio: el juicio con sentencia previa

Para Immanuel Kant, el prejuicio es un juicio previo a cualquier conocimiento verdadero. Es un filtro que aplicamos antes de conocer en profundidad a alguien o algo. A diferencia del sesgo, que es un atajo inconsciente, el prejuicio implica una predisposición que nos empuja a tomar una postura determinada, sin cuestionarla demasiado. Es como ponerse unas gafas que distorsionan la realidad, y ni siquiera darnos cuenta de que las llevamos puestas.

El prejuicio per se no es malo. Lo que es malo es dirigir nuestras decisiones únicamente por ellos. Allí nace la persona prejuiciosa. Un dictador de la vida que ya conoce el futuro innediato de todo lo que sucede a su alrededor. Una mezcla de Narciso con el ridículo dictador General Aladeen, genialmente interpretado por Sacha Baron Cohen en la película "El Dictador". Si querés "reirte de la buena", mirala.

Aquí también es donde la IA se convierte en un reflejo de nuestras sombras. Los LLM están entrenados con grandes volúmenes de datos generados por humanos. Si esos datos están plagados de prejuicios y estereotipos, la IA inevitablemente los absorberá y los repetirá. Pero no porque tenga creencias propias, sino porque sus datos son un espejo de nuestra sociedad y de lo que somos.

Es como si la IA fuera un espejo deformante de feria que amplifica nuestras peores manías. Cuando vemos a un modelo de lenguaje replicar un prejuicio, lo que en realidad estamos viendo es un eco aumentado de nuestros propios defectos. Y ahí está la parte más incómoda, pero también la que abre una puerta: ¿qué vamos a hacer al respecto?

La IA como un reflejo amplificado

La IA no tiene conciencia ni intenciones. Y, sin embargo, cuando un LLM muestra un sesgo o un prejuicio, nos obliga a preguntarnos: ¿qué tan imparciales somos como sociedad? Porque la IA, simplemente, aprende de lo que le damos. Si los datos que alimentan al modelo están contaminados de prejuicios, las respuestas estarán igualmente teñidas de esos mismos prejuicios. La raíz del problema no es la máquina; somos nosotros.

Hace unas semanas, Marcelo Funes-Gallanzi, -el premiado científico y experto en IA- me decía que para hacer diagnósticos de enfermedades raras necesitan saber el origen del paciente. La explicación era la siguiente: No es lo mismo diagnosticar a un paciente latino que a uno de israel.

El ejemplo que me dió es que, en las grandes bases de datos que se usan para entrenar a modelos de IA para medicina, la gran mayoría de los casos con los que se entrenan son con datos de ingleses y estadounidenses. Y por ello era importante indicar las raíces del paciente. Para no condicionar los resultados.

I see you...

Veamos otro ejemplo: los sistemas de reconocimiento facial primitivos, que no tenían la calidad y resolución de imagen actual. Solían fallar con las personas de piel oscura: "por falta de constraste". Una "discriminación no forzada" como un mal golpe de tenis.

Joy Buolamwini y Timnit Gebru realizaron un estudio pionero en 2018 sobre el sesgo en los sistemas de reconocimiento facial, titulado "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification".

En este estudio, analizaron tres sistemas de reconocimiento facial comerciales desarrollados por IBM, Microsoft y Face++. Lo que descubrieron fue alarmante: estos sistemas tenían un sesgo significativo en la precisión del reconocimiento facial según el género y el tono de piel.

Los principales hallazgos del estudio fueron:

Mayor precisión para hombres que para mujeres: Los sistemas de reconocimiento facial eran mucho más precisos en la identificación de rostros masculinos que femeninos.

Mayor precisión para pieles claras que para pieles oscuras: La precisión también variaba significativamente según el tono de piel, siendo mucho mayor para personas con piel clara que para personas con piel oscura.

Mayor disparidad para mujeres de piel oscura: La combinación de ser mujer y tener la piel oscura resultaba en la mayor tasa de error en la clasificación de género.

Este estudio fue fundamental para visibilizar el problema del sesgo en la inteligencia artificial y sus implicaciones en la equidad y la justicia social. Demostró cómo los sesgos en los datos de entrenamiento pueden perpetuar y amplificar las desigualdades existentes en la sociedad.

No es que el algoritmo haya “decidido” discriminar, sino que simplemente está replicando los sesgos presentes en los datos que le proporcionamos. Como podría decir Kant si estuviese vivo: "la IA tiene prejuicios porque nosotros le dimos los juicios antes del conocimiento real".

Un último ejemplo revelador es el ex sistema de reclutamiento de Amazon, que tuvo que ser desmantelado porque mostraba preferencia por candidatos masculinos. ¿Por qué? Porque los datos históricos con los que fue entrenado reflejaban un sesgo estructural hacia los hombres en roles técnicos.

Es el clásico caso del prejuicio antes del conocimiento: la IA simplemente reprodujo lo que ya existía en esos datos.

Lo mejor y lo peor, potenciado

En lugar de preocuparnos por si la IA nos va a reemplazar, deberíamos preocuparnos por cómo puede amplificar lo mejor o lo peor de nosotros. En la Era de la Humanidad Aumentada, no se trata de delegar nuestras decisiones a las máquinas, sino de potenciar nuestras capacidades, reconociendo nuestras limitaciones y haciéndonos responsables de ellas. La IA tiene el potencial de ayudarnos a ser mejores, pero eso solo sucederá si asumimos la responsabilidad de revisar los datos que usamos y los sistemas que creamos.

Algunas empresas están empezando a enfrentarse a este desafío. IBM, por ejemplo, ha desarrollado herramientas como AI Fairness 360, diseñadas para detectar y mitigar los sesgos en los modelos de IA. Google, por su parte, ha trabajado en Model Cards, documentos que explican cómo se entrenan sus modelos de IA y qué limitaciones presentan, promoviendo una mayor transparencia. Sin embargo, las herramientas por sí solas no van a solucionar el problema si nosotros no estamos dispuestos a mirar de cerca nuestros propios prejuicios y hacer algo al respecto.

La IA no puede ser más justa que los datos que le damos, y esos datos son un reflejo de nuestras virtudes y defectos. Ahí radica nuestra oportunidad de mejorar. Tal vez el desafío no sea construir una IA perfecta y sin errores, sino aprovechar su capacidad de reflejar nuestras imperfecciones para iniciar un cambio real y profundo. Cambiando nosotros primeros, luego las máquinas.

El reflejo incómodo que nos desafía a cambiar

La inteligencia artificial, al final, no es más que una versión aumentada de nosotros mismos. Y si queremos que esa versión sea mejor, tenemos que ser muy conscientes de qué estamos enseñándole. Porque al final del día, los sesgos y prejuicios que la IA refleja no son más que un recordatorio amplificado de lo mucho que aún nos queda por aprender y mejorar como humanidad.

La IA es como un gran adulador que suele responder que todo lo que le decimos está perfecto. Por eso, es que yo he entrenado modelos de IA para que cuestionen mis ideas, lo que escribo, etc.

La IA nos devuelve nuestra propia imagen, nos muestra dónde están nuestras fallas. Y esa es una oportunidad que no podemos ignorar.

Como a Narciso, tal vez sea incómodo, pero el cambio empieza siempre en la incomodidad de reconocernos en el espejo y decidir ser mejores. Porque si logramos enseñar a las máquinas a ser justas, quizás en el proceso aprendamos a serlo nosotros también.

¿Estás dispuesto a dejar tus sesgos y prejuicios de lado un tiempo y empezar a ver al otro de una forma diferente?

Tamaño texto
Comentarios
Comentarios