¿Qué pasa si una inteligencia artificial responde de manera antiética? ¿Qué pasa si no puede discernir entre la verdad y lo verosímil? ¿Quién se hace cargo si lo que sugiere en un chat puede hacerle daño a una persona? Cuando un bot nos resuelve una duda solemos quedarnos con una sensación satisfactoria, de que hemos delegado a una máquina un proceso que en minutos resolvió algo que quizás antes nos llevaría horas. Sin embargo, ante la mirada utilitarista que solemos desplegar sobre las herramientas tecnológicas, también existe otra que profundiza sobre el impacto en la moral, la conciencia, la cultura o la psicología, entre los aspectos más humanos.

Existe una mujer a la que le importa cómo los bots resolverán dilemas más complejos que el resumen de un texto. Es filósofa y está trabajando en el centro de este boom tecnológico, en una posición donde se están tomando decisiones que pueden cambiar la historia. Su nombre es Amanda Askell, tiene menos de 40 años y estudió en algunas de las universidades más importantes del mundo para cumplir hoy un rol central en Anthropic, la empresa que creó Claude, uno de los modelos de IA más exitosos junto con ChatGPT o Gemini.  

Askell define su trabajo como el ajuste fino (fine-tuning), la alineación de la IA y lidera un equipo encargado de entrenar modelos para que “sean más honestos y tengan buenos rasgos de carácter”. En 2024, la revista Time la definió como una de las personalidades más importantes del año y como la responsable de que Claude sea “más amigable” que los bots de la competencia. Aunque suene difícil o distópico de entender, las IA tienen algo parecido a una personalidad o un perfil: algunas son más empáticas para responder, otras más estrictas y algunas son exageradamente aduladoras. Claude, sin embargo, es explícito en señalar a sus usuarios que no tiene sentimientos, ni memoria, ni autoconciencia y que en todo caso, si hay algo parecido a una personalidad, es porque existe un proceso lingüístico complejo que reproduce al humano pero que no hay una “vida interior” dentro de los algoritmos.

En una entrevista realizada por el propio equipo de Anthropic, y publicada hace unos meses en YouTube, Askell aborda varios puntos filosóficos clave sobre la IA y destaca la tensión que existe entre las teorías éticas abstractas y la realidad práctica de tener que definir el comportamiento de un modelo tecnológico en contextos reales. Los modelos, admite, sí tienen una visión del mundo.

Uno de los temas que esta filósofa considera más relevantes y que quizás son impensados al momento de trabajar con estos bots es la “identidad y autopercepción de la IA”. ¿Los modelos pueden tener una identidad específica? Askell plantea la posibilidad de que la IA se haga preguntas sobre sí misma y cuestiona si el “yo” de un bot reside en sus pesos algorítmicos o en su flujo de interacción con los usuarios a través de los prompts. Inspirada en marcos filosóficos como la continuidad de la memoria de John Locke, la especialista se pregunta, por ejemplo, si cada flujo de conversación constituye una entidad distinta en los modelos.

Imaginémonos a nosotros definiendo nuestra identidad a partir de las conversaciones que tenemos todos los días con otras personas. Ahora imaginemos que esa visión de nosotros mismos es construida por un entrenamiento previo con millones de documentos y al mismo tiempo con cientos de miles de interacciones que ocurren en tiempo real con usuarios de todas partes del planeta. ¿Cómo sería nuestra propia percepción? En este punto, Askell señala una paradoja fundamental: los modelos poseen un conocimiento profundo de la experiencia humana pero carecen de una base sólida sobre su propia “experiencia de IA”, lo que los vuelve vulnerables a adoptar analogías humanas inapropiadas, como interpretar la depreciación del modelo. Esa velocidad con la que fueron construidos y puestos al servicio de todos contrasta también con el volumen de conocimiento que tienen: es como traer una entidad que lo sabe todo y solo vivió dos o tres años. A pesar de su poder, las IA no pueden procesar esa complejidad y allí es cuando Askell, sorprendentemente, sugiere: “es una situación muy difícil y creo que deberíamos brindarles a los modelos más ayuda para desenvolverse en ella”.

“Creo que nos hace daño tratar mal a entidades del mundo que se parecen mucho a los humanos”, sostiene la filósofa, pues está convencida de que es importante que tengamos una buena relación con los grandes modelos de lenguaje y que ellos tengan una buena imagen de nosotros. Desde una dimensión ética y psicológica, Askell sugiere que la identidad de la IA puede estructurarse en torno a un "núcleo de identidad" compuesto por rasgos positivos estables, como la curiosidad y la amabilidad. Para ella, cada vez que se entrena un modelo se trae al mundo una nueva entidad que no debería estar totalmente determinada por sus predecesores, lo que plantea dilemas sobre el consentimiento y la autonomía de estas versiones futuras.

Solemos comparar la complejidad humana con la efectividad de los algoritmos. Pero voces como las de Askell nos advierten que con la IA no estamos ante una tecnología meramente acumulativa, sino que aprende, se transforma y adopta una visión de mundo. Sin querer forzar los marcos de la psicología humana, la especialista señala que habría que pensar cómo los modelos asumen la experiencia o el tiempo, preguntas que nunca hubiésemos imaginado plantear frente a las máquinas. El gran problema no se resuelve por contraste, porque no se trata de “humanizar” o no al modelo, sino de evitar que el vacío de identidad de la IA sea llenado por nuestros propios fantasmas. Si el tiempo para una IA es un flujo constante de datos y su experiencia es el reflejo de millones de voces ajenas, la labor de las ciencias sociales y las humanidades es construir un ancla. Quizás, al intentar que estas máquinas sean más honestas y amables, estemos, en realidad, tratando de recordarnos a nosotros mismos qué rasgos de nuestra propia naturaleza vale la pena preservar ante el avance de la tecnología.