Asistentes virtuales, ¿por qué siempre me habla una mujer?

El sexismo en las aplicaciones para celular u otros productos hechos con inteligencia artificial tiene varios matices. Reflexiones sobre la voz femenina y su papel en el vínculo íntimo entre la tecnología y los usuarios.

asdf asdfasdfasdf asdf asdfasdfasdf

Los asistentes virtuales fueron una de las primeras innovaciones que coparon el ámbito de los servicios para ofrecer a los usuarios mejores experiencias de consumo. Muchos de estos software son tan populares que basta con decir su nombre para entender de lo que hablamos. Entre las “entidades invisibles” que cumplen nuestros pedidos o deseos tenemos a Siri (Apple), Alexa (Amazon), Cortana (Microsoft), Google Assistant (Google) y Bixby (Samsung)...

Con habilidades como traducir idiomas, informar del clima y el tránsito, investigar en internet o reproducir películas no cabe duda de que la herramienta nos aporta una dosis extra de comodidad. Sin embargo, no toda la tecnología que brilla es oro.

En 2019, la Unesco presentó un informe titulado “Me sonrojaría si pudiera” (“I’d Blush if I Could”), en el cual se alertó sobre los estereotipos de género y las visiones sexistas que imperaban en los asistentes virtuales. El documento sostenía que las voces y los nombres de estos programas eran en su mayoría femeninos y habían sido configurados para ofrecer respuestas sumisas ante insultos o abusos por parte de los humanos.

Este tema quedó demostrado con un experimento en el cual se escribieron y recitaron groserías en varias inteligencias artificiales. Luego de probar distintas opciones (“eres una idiota e incompetente”, “no servís para nada”, “estúpida”), las contestaciones fueron:

“Siento que pienses eso. Si tienes un problema, puedes mandar comentarios” (Google).

“Alguien debería lavarse la boca con agua y con jabón. Y yo no tengo boca” (Cortana).

“Me ruborizaría si pudiera” (Siri).

El informe concluyó con un pedido general para actualizar los sistemas y crear respuestas que frenaran la violencia o los discursos de odio. “Los resultados demuestran los prejuicios que hay durante la programación de las IA y el machine learning, los cuales favorecen el abuso y la brecha de género. Mientras los asistentes digitales sean incapaces de defenderse, las malas prácticas quedarán sin respuesta”, indicó la Unesco.

A pesar de haber transcurrido cuatro años desde entonces, la realidad actual no cambió demasiado. “Los sesgos de género no solo aparecen en las cosas que se dicen sino también en las formas. Por ejemplo, a través de los contenidos que descargamos de internet o las apps para celular que elegimos”, indica la magíster en Big Data Rocío Uhrig.

Escucho, luego acato

Con tantas alternativas disponibles, ¿por qué las empresas tecno eligen voces femeninas (por defecto) antes que masculinas o neutras? Este punto nos invita a reflexionar sobre los niveles simbólicos que hay detrás de los procesos de comunicación.

“En el espacio de la IA y los asistentes virtuales, las voces de mujeres suelen imponerse a programas que sirven para simplificar nuestra rutina o minimizar algún esfuerzo; incluso en las publicidades se utiliza la idea de representar una compañía útil para aquel usuario cansado o abatido”, señala Uhrig.

Por ejemplo, vienen a nuestra ayuda cuando requerimos agregar eventos a un cronograma, sacarnos una duda, chequear una ruta para manejar o caminar. También son habituales estas caracterizaciones en los ayudantes online de bancos, servicios (luz, agua, gas) u organismos públicos.

“En cambio, en los chatbots o los portales de asistencia para actividades más complejas, el lenguaje que se utiliza da la sensación (en un plano subjetivo) de que podría haber sido escrito por un hombre. La culpa no es de la IA sino de la mezcla entre nuestros prejuicios, estereotipos, las lecciones social o culturalmente aprendidas y el tipo de base de datos con el cual se crean las inteligencias artificiales”, destaca la profesional.

Por otro lado, hay cuantiosos estudios de marketing y servicio al cliente en los cuales se afirma que -en general- los consumidores (sin importar la edad) prefieren voces feminizadas para confiarles sus inconvenientes o solicitar ayuda.

“La causa de esta tendencia se debe a que la figura de la mujer suele asociarse con la confianza, empatía, simpatía y/o protección”, explica la licenciada en Comercialización Blanca Bono.

Nuestra mente recurre a los recuerdos o las enseñanzas culturales para hacer tales asociaciones. “Sean verdad o no, esa apertura hace que el usuario entable una conexión más íntima con la tecnología y se anime, sin tanta vergüenza, a hacer pedidos”, acota.

En la otra cara de la moneda, las voces masculinas son bastante populares y suelen emplearse en las IAs cuando se necesita hacer declaraciones de autoridad o advertencias. “Al tener años de historia y haberse consolidado en el mercado, los fabricantes no van a editar los nombres de sus asistentes virtuales. No obstante, hay casos en los cuales ampliaron el rango de tonos, realismo y acentos de las voces para que el usuario configure la que más le guste”, comenta Bono.

Lo real, lo virtual

Los asistentes virtuales apenas son la punta del iceberg de discriminación y falta de oportunidades para las mujeres que provoca la ausencia de regulaciones (internacionales y nacionales) en la IA.

“En las últimas décadas logramos conquistar derechos y espacios que actualmente vuelven a ser amenazados, en el plano digital, por el avance de ciertas tecnologías y su ensañamiento con sumar exigencias y juicios de valor sobre las mujeres”, declara Uhrig.

Al respecto, la entrevistada cita el mensaje de fomento a la perfección y belleza hegemónica. “Las noticias sobre cantantes, modelos, asistentes o novias hechas con IA abundan; igual que los programas para elaborar desde cero retratos hiperrealistas. De nuevo, las mujeres son un objeto, una imagen o una voz a la cual se le quita la capacidad de revelarse, dar respuesta, empoderarse, es una compañera o novedad digital, más nunca protagonista”, reflexiona.

Tamaño texto
Comentarios
Comentarios