Por Alejandro Urueña / Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
Por María S. Taboada / Profesora Titular de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
Rebeca Ackerman en un interesante artículo, “Tu jefe te está mirando” publicado en MIT Technology Review revela los nuevos mecanismos de control, implementados mediante IA que desde la pandemia comenzaron a utilizar no pocas empresas en Estados Unidos y en el resto del mundo para evaluar el trabajo remoto. Los registros pueden abarcar desde el diagnóstico del tiempo que los trabajadores pasan frente a la computadora hasta las pulsaciones de las teclas. Estas nuevas formas de monitoreo emergieron impulsadas por la sospecha de que quienes realizan esta modalidad son menos productivos.
El panóptico de Bentham o la vigilancia extrema ideada en “1984” por Orwell dejan el ámbito de la metáfora y la ficción para concretarse digitalmente en formas de intervención y control de los sujetos inimaginables incluso en aquellos mundos. Podría hipotetizarse que esta vigilancia de los “algoritmos opacos” tiene alguna justificación en estudios concretos de productividad; sin embargo las investigaciones económicas al respecto evidencian que las sospechas, o los argumentos ideados para sostener estos modos de invasión de la privacidad, son infundados. ¿Una nueva forma de esclavitud o de avasallamiento desde la oscuridad? Puede ser.
Como señala Ackerman, los trabajadores podrían ser expulsados de sus plataformas por un algoritmo sin posibilidad de apelación, porque – y ya lo sabemos- la legislación respecto de la transparencia de los datos en muchas partes del planeta o no existe o es demasiado lábil. Se difuminan, IA mediante, las responsabilidades y las acciones concretas de los humanos que gestionan esas organizaciones y planifican los controles. Las estrategias y decisiones humanas quedan enmascaradas por el algoritmo que – y también, lo sabemos- puede tener no pocos sesgos, que tampoco surgen por generación espontánea, sino que son el producto de acciones u omisiones humanas. No se trata entonces de eficiencia y, aunque se tratara, este tipo de avasallamiento a los derechos humanos es igualmente inaceptable. Sin eufemismos, es control ilimitado desde las sombras. Tal vez, el peor de todos.
Descontrol desde la omisión
Otra faz oscura de la IA, o de quienes definen la IA, es la delegación en máquinas de decisiones humanas que ponen en juego la vida o la muerte de otros. Nos referimos a los vehículos automatizados que “se manejan solos” y que, ante lo que solemos denominar imprevisto, miran y deciden qué hacer sin intervención ni control de humanos. En otras palabras, deciden descontroladamente sobre la vida de la gente.
Las evidencias no son pocas y pueden -como ya ha ocurrido- matar personas porque las “maquinas” no saben qué es lo que están decidiendo y accionan sin conciencia ética, ni sentimientos; para los algoritmos lo que “se cruza en su camino” son datos, aunque tengan forma humana. Las capacidades y potencialidades de estos algoritmos, que superan ampliamente a las humanas, no son suficientes a la hora de los dilemas éticos. Podrán ver demasiado pero no pueden interpretar valorativamente la información que escapa a sus diseños, las alternativas que no pueden predecir.
Es hora de poner en la mesa el debate que subyace a estos dilemas. El MIT creó un juego “Moral machine” (si quieres medir tu “moral” entra al LINK donde el jugador decide quién vive y quién no. De hecho, y mucho antes de esta “novedad”, los juegos en línea – y previamente, los analógicos- ponían en juego, con personajes ficticios, la vida y la muerte de otros.
La novedad no es tal; lo que ocurre es que hoy los personajes se asemejan más a las personas y, en los hechos, los datos que registran los algoritmos son personas de carne, hueso, sentimientos y derechos. El problema no es si son simbólicos o no. Tampoco es la IA en sí misma. El problema es qué valoración hemos desarrollado los humanos respecto de los otros, nuestros pares, y en qué medida estamos dispuestos a respetar, sin sesgos, la dignidad, los derechos humanos, nuestras diferencias y la vida humana misma. Es hora de hablar sin tapujos del fondo del problema -ese que aún permanece en penumbras- porque la IA es un producto humano, hecho por humanos a imagen y semejanza de sus creadores. ¿O hay creadores que se creen dioses infalibles?