Gemelos digitales: ¿ceder personalidad o esclavizar nuestra humanidad?

Gemelos digitales: ¿ceder personalidad o esclavizar nuestra humanidad?
01 Diciembre 2024

Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

María S. Taboada:
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.

Un equipo de investigadores de Stanford y de  Google Deep Mind (https://www.technologyreview.es/s/16904/la-ia-ahora-puede-crear-una-replica-de-tu-personalidad)  ha anunciado  que puede lograr una réplica virtual de un ser humano que emule su personalidad, sus formas de pensar, sentir, sus valores. El grupo, dirigido por J. S. Park diseñó y realizó entrevistas a un millar de personas, tomando en consideración diferentes edades, sexo, etnias, educación e ideologías políticas, para obtener datos de la mismas con el objetivo de crear gemelos digitales que las imitaran y fueran capaces de clonar sus  personalidades y psiquis con un alto grado de precisión. Para cotejar  los resultados aplicaron, por un lado,  encuestas sociales generales que evalúan aspectos de la personalidad  y, por otro, juegos lógicos  tanto a las personas convocadas como a sus clones virtuales. Obtuvieron un 85% de similitud en los resultados. Cabe acotar, sin embargo, que las mayores fallas se advirtieron en relación con valores culturales, como la justicia.

Los citados investigadores, en un artículo publicado en 2023 (https://dl.acm.org/doi/pdf/10.1145/3586183.3606763)  se refieren a sus algoritmos como “agentes generativos”, esto es  “agentes de software computacional que simulan comportamientos humanos creíbles” y señalan que pueden realizar acciones que los humanos despliegan en su vida cotidiana y profesional. Para lograrlo  describen “una arquitectura que extiende un gran modelo de lenguaje para almacenar un registro completo de las experiencias del agente utilizando lenguaje natural; sintetizan esas memorias a lo largo del tiempo en reflexiones de nivel superior y las recuperan dinámicamente para planificar el comportamiento”.

Las réplicas virtuales se denominan “agentes de simulación o simulacro” y a diferencia de los agentes basados en  herramientas  (a los que se hizo referencia en un artículo en este mismo periódico la semana pasada), no son IA destinada a realizar tareas a petición de los humanos sino que intentan ser réplicas de esos humanos.  No se busca aligerar o facilitar tareas, sino que intentan ser espejos virtuales. James O'Donnell, en el citado artículo de la MIT Review, aporta una comparación por demás ilustrativa: los agentes de herramientas “son modelos diseñados para hacer cosas por usted, no para conversar con Ud.”.

Los objetivos que orientan la creación de estos agentes son de muy diversa índole, pero particularmente la simulación está hecha para favorecer investigaciones en ciencias sociales que pueden ser muy onerosas o resultar antiéticas si fueran desarrolladas con humanos. Se plantea que si los agentes pueden emular personas reales se podría indagar sus comportamientos y reacciones  para favorecer intervenciones sociales que eviten o minimicen conflictos.

Desde la perspectiva científica cabría interrogarse, por una parte, hasta dónde son fiables y válidos estos “agentes” como objetos/sujetos de investigación y  las intervenciones que se propongan sobre la base del análisis de sus comportamientos. Y, más allá o más acá, cabe preguntarse quiénes diseñan, por qué y para qué y con qué estatuto de poder social. De hecho, los objetivos iniciales tienen un sesgo ético: sortear condicionamientos. ¿Qué garantiza que los resultados finales no lo tengan?

Extractivismo de datos

La referencia a las entrevistas como técnica de recolección de datos presupone el consentimiento de las personas. Vale aclarar, de paso, que se pagó 100 dólares a cada entrevistado. Si se trata de personas necesitadas, el consentimiento está altamente condicionado. En otras palabras, puede haber un sesgo de manipulación. De todos modos, la ética en investigación científica nos inclina a inferir que los participantes no sólo conocían el por qué de las entrevistas sino qué se iba a hacer con los datos para evitar filtraciones. Aspecto este último sumamente vulnerable cuando son empresas las que subsidian las investigaciones, como hemos señalado más de una vez en nuestras columnas. Y más aún, si las entrevistas son mediadas por agentes (herramientas) de IA que sobre esa base generan una suerte de holograma psíquico.

Pero la recolección de datos no se ha hecho en otros casos apelando sólo a entrevistas. Se advierte (What are AI agents? | MIT Technology Review) que algunas empresas apelan también a “ingerir” correos digitales y otras fuentes de datos de sus clientes. ¿Son éstos conscientes de la invasión a su privacidad? ¿O es un “todo vale”, para obtener un gemelo digital? ¿Y qué ocurre si estos datos luego son migrados a otras esferas y el humano queda entrampado en el uso que puede hacerse de su gemelo digital? No es necesario volver a explayarse sobre el tema de los vacíos de regulación, que son y serán cada vez mayores en esta maratón exponencial de desarrollo de la IA.

¿Para qué?

Los desarrolladores de los agentes de simulacro plantean que éstos podrían realizar un variado abanico de acciones que abarca diversas dimensiones de la vida humana: “Estas simulaciones del comportamiento humano podrían poblar espacios y comunidades virtuales con fenómenos sociales realistas, entrenar a las personas sobre cómo manejar situaciones interpersonales raras pero difíciles, probar teorías de las ciencias sociales, crear modelos de procesadores humanos para la teoría y las pruebas de usabilidad, potenciar aplicaciones informáticas ubicuas y robots sociales…” (Park, J.S, et al, 2023)

¿Se trata de una suerte de singularidad a lo Kurzweil (2005)? Pero, entonces, no sería otro yo que podría seguir viviendo y desarrollándose con independencia del cuerpo y superar la muerte biológica. Sino un otro yo, paralelo. Y: ¿para qué?

Para suplementar o complementar tareas están los agentes de herramientas, que son agentes que hacen cosas para un humano. ¿Para qué otro humano idéntico a mí? Los interrogantes inducen a sospechar objetivos y acciones al borde o fuera de la ética: simulaciones, manipulaciones, intervenciones enmascaradas. En suma, conductas y prácticas destinadas a acumular o fortalecer poder encubiertamente. Pero bien podría ocurrir lo contrario: que el gemelo digital fuera tomado por la persona a la que emula y experimentar arbitrariamente con su clon, y hasta hacerla responsable de acciones exógenas. Qué pasaría, por ejemplo, con la democracia si los votantes reales fueran sustituidos encubiertamente por gemelos digitales.

¿Para qué una comunidad digital simulacro de las comunidades reales, tal como describen Park y sus colegas en su artículo? Los objetivos sociales no están claros y los riesgos sociales, políticos, geopolíticos y éticos son muchos. El fin: la carrera por el desarrollo de la IA, sin parámetros ni horizontes explícitos, no justifica los medios. Sobre todo cuando fin y medios se diluyen en un territorio ambiguo dentro un mundo ya sofisticadamente amenazado.

Temas Tucumán
Tamaño texto
Comentarios
Comentarios