Tenía 14 años y decidió encerrarse en el baño para morir. Junto al cuerpo, sus padres encontraron un arma y el iPhone. Los investigadores descubrieron que, antes de apretar el gatillo, Sewell había intercambiado mensajes con un asistente conversacional de la aplicación Character.AI, que había adoptado la identidad de Daenerys Targaryen, de “Juego de Tronos”. “Te prometo que iré a casa contigo”, escribió Sewell. “Te amo mucho, Dany”, agregó el chico. “Yo también te amo”, le respondió el chatbot. “Por favor, ven a casa conmigo lo antes posible, mi amor”, insistió el chat. Instantes después, se disparó.

Este caso, magistralmente cronicado por “The New York Times” esta semana, llegó a la Justicia, porque la abogada Megan García, madre de este adolescente que se había enamorado de un bot, entabló una querella contra la firma que desarrolló la app. De hecho, se trata de la primera demanda presentada ante un tribunal federal estadounidense en la que se acusa a una empresa de inteligencia artificial (IA) de causar la muerte de uno de sus usuarios. El juicio está previsto para noviembre del año que viene.

La muerte de Sewell y la relación distópica y turbadora que mantenía con la IA aparece como la manifestación extrema de una tendencia inquietante: la delegación de la intimidad y la introspección en la tecnología. En otras palabras, usar ChatGPT (o cualquier otra herramienta) como una especie de terapeuta personal, consejero o, inclusive, pareja sentimental. Palabras más, palabras menos, ese es el título de un podcast interesantísimo de Anfibia (se lo puede escuchar y ver en Spotify y en Youtube) en el que Luciano Lutereau (licenciado en Psicología y Filosofía, docente universitario y autor de varios libros) analiza este fenómeno.

Un padre denunció que ChatGPT agravó el trastorno alimentario de su hija de 14 años

Lutereau señala, entre otras cosas, que el uso del ChatGPT ha experimentado un cambio significativo: pasó de brindar funciones profesionales (como resúmenes de textos, por ejemplo) a ser una herramienta consultada por temas muy íntimos, como estados emocionales e inquietudes personales. Al punto que este es uno de sus usos más extendidos en el mundo, según la revista Harvard Business Review. Tal vez, el verdadero riesgo no radica en el hecho puntual de contarle cuestiones personalísimas a la IA -al fin y al cabo desde hace décadas venimos exponiendo desenfrenadamente nuestra intimidad y las de nuestras familias en las redes sociales-, sino en que el usuario empiece a descifrarse a sí mismo a partir del chat. Sucede que, al basarse en la conexión de palabras por promedio matemático (porque a muy grandes rasgos así trabaja), el funcionamiento de la IA opera como un acto de sugestión que ofrece diagnósticos generalizados. En el podcast, Lutereau remarca que el problema surge cuando el usuario renuncia a reconocer lo estrictamente singular de su experiencia vital y acepta una categoría prefabricada. Por ejemplo: autodiagnosticarse TDA o cualquier otro trastorno mediante un par de consultas con el ChatGPT. Parece insólito, pero ocurre. Y mucho.

El detalle más preocupante

En el caso de los niños y de los adolescentes, el tema se vuelve aún más inquietante. “¿Qué me pasa?”, suele ser la pregunta ansiosa mediante la cual los chicos buscan descifrarse a sí mismos por medio del chat. Esto puede llevar a una codificación de la emoción. Es decir, a que la IA llegue a “emocionarse por uno mismo” haciéndonos perder la capacidad de expresar lo que sentimos, con todo lo que esto implica.

Los padres pueden tener mayor control: así funciona el control parental de ChatGPT

Sin dudas, lo que planteamos más arriba debería ser un tema relevante para los padres, los docentes y los terapeutas, porque hoy más de la mitad de los chicos y chicas argentinos de entre 9 y 17 años usa la IA de forma cotidiana. Si tenemos en cuenta que el 95% posee un celular a mano (propio o de sus padres) con acceso a internet, indefectiblemente el uso del ChatGPT y de otras herramientas -porque son muchísimas- se generalizará vertiginosamente en los próximos meses. Y nada indica que la tendencia a vincularse emocionalmente con los bots interactivos vaya a retroceder. Al contrario.

Los parias digitales

En un mundo sacudido por la irrupción de esta tecnología -que es fantástica, cabe destacar-, las dudas se multiplican casi a la misma velocidad con las que Gemini y ChatGPT (quizás, las dos herramientas más difundidas) disparan respuestas para cualquier prompt. Mientras que los chicos las abordan con naturalidad, los adultos vivimos atribulados. Y en muchos casos, el “miedo a quedar afuera” paraliza el reflejo de aprender a usarlas. Por todos lados nos bombardean con la idea de que si no nos subimos a la IA vamos a perder el trabajo, nos vamos a quedarnos sin ingresos, que nuestros negocios se van a fundir, que vamos a quedar excluidos de todo. En otras palabras, que vamos a convertirnos en parias digitales. Es como si permanentemente alguien nos estuviera gritando desde arriba de un pedestal que estamos equivocados, atrasados, perdidos, desahuciados, porque aún no hemos incorporado la IA hasta en el último resquicio de nuestras vidas. Y es justamente este aturdimiento, este ruido, el que nos puede hacer perder la brújula que debe guiarnos como padres.

Un hombre le pidió a ChatGPT una idea para invertir 100 euros y terminó perdiendo una empresa

Prohibir o limitar el acceso a la IA a nuestros hijos claramente no es la opción. No hay dudas de que esta tecnología vino a cambiar el mundo y que estamos -aunque no lo percibamos cabalmente- frente a una revolución comparable únicamente con hitos que torcieron la historia, como el uso del fuego, la invención de la imprenta o el descubrimiento de la electricidad, sólo que de un modo mucho más veloz y disruptivo. Entonces ¿qué hacemos? De lo que dice Lutereau se pueden extraer algunas ideas.

1- Es crucial que nuestros hijos entiendan que no deben renunciar a la singularidad. Es decir: que comprendan que las respuestas que les da la IA corresponden a categorías que tienden a la generalización. Al menos por ahora.

2- Hay que enseñarles -empezando con nuestro ejemplo- a tolerar las tensiones naturales de la vida sin caer en interpretaciones demasiado concluyentes o estandarizadas, como las que hoy provee la IA. Inclusive, el no saber o no entender del todo algo sobre uno mismo o sobre el otro es natural y no está mal. Debemos bajar de algún modo el nivel de angustia permanente con el que convivimos.

3- Va a ser fantástico que abandonemos la búsqueda constante de un manual, de una técnica o de un “tip” que dicte las acciones personales. La vida nos obliga a tomar decisiones propias y a actuar según las circunstancias. A esto hay que alentarlo y no delegarlo en nadie, ni siquiera en la IA.

En tiempos de vértigo, de cambios imparables y de mucho ruido quizás sea un buen momento para volver a lo más analógico del mundo: invertir tiempo de valor en empatizar con nuestros hijos, en escucharlos, en tratar de entenderlos. Y en contarles que lo más lindo de la vida ocurre más allá de las pantallas.