¿Por qué no deberías usar Chat GPT como psicólogo?
Los chatbots de inteligencia artificial parecen el confidente perfecto. Son capaces de escuchar sin juzgar y aparentan tener más empatía que cualquier otro oyente humano, además de estar disponibles a cualquier hora, por lo que resolver un problema parece ser bastante sencillo. Pero la ciencia advierte que todos esos beneficios pueden devenir en consecuencias psicológicas más profundas.
Distintas investigaciones ahondan en las consecuencias que representa contar con Chat GPT o cualquier otro asistente de IA como terapeuta, una tendencia extendida entre muchos usuarios. Esto quedó claro en un estudio de Common Sense Media, una organización sin fines de lucro dedicada a analizar el impacto de la tecnología en niños y jóvenes, que reveló que el 72% de los adolescentes en EE.UU. ya interactuó con un chatbot de IA, y casi la mitad confía en sus consejos “al menos un poco”. Además, un 31% considera estas interacciones tan satisfactorias como una amistad real, mientras que un 33% prefiere conversar con la IA sobre temas serios en lugar de hacerlo con otras personas.
Cuando usar la IA como terapeuta puede funcionar
Los expertos adoptan posturas variadas aunque ninguno de ellos cree en que los problemas personales deberían quedar en manos de la IA. "Es una herramienta excelente que complementa la atención de la salud mental. Puede ayudar en áreas como la detección y el apoyo diagnóstico, y también puede proporcionar habilidades de afrontamiento prácticas y relevantes basadas en modalidades basadas en la evidencia como la TCC (terapia cognitivo-conductual), la ACT o la TCD (terapia dialéctica conductual)", destacó la Dra. Saliha Afridi, directora de LightHouse Arabia, una clínica de bienestar en Dubái, quien adopta una postura más conciliadora.
Pero tanto Afridi como la Dra Elena Gaga, psicóloga clínica de la Clínica Hummingbird de Dubái, señalan que en la salud mental no bastan los consejos de los chatbots. Las especialistas compartieron cuáles eran los riesgos de su uso intensivo como terapeuta.
Cinco riesgos de usar Chat GPT como terapeuta
1. Falta de empatía y conexión humana
Una relación terapéutica no se basa únicamente en el conocimiento o las habilidades clínicas. Proviene de la presencia del terapeuta y su sensibilidad emocional para comprender las experiencias de vida de una persona. ChatGPT y otras inteligencias artificiales no experimentan sufrimiento, alegría ni comprenden lo que significa ser vulnerable.
Aunque la IA puede simular un conocimiento empático, no puede encarnar el proceso profundamente humano de resonancia emocional, que es lo que hace que la terapia sea transformadora. Las expertos enfatizan que la empatía es una presencia, no un patrón, y que la curación se deriva de la capacidad de notar cambios sutiles, corrientes culturales y lenguaje corporal que la IA no puede codificar de manera significativa.
2. Imposibilidad de superar los problemas
La investigación indica que el factor curativo más poderoso en la terapia de conversación no es la técnica específica o la modalidad, sino la calidad de la relación entre el terapeuta y el cliente. Cuando las personas procesan experiencias de vida traumáticas en presencia de un terapeuta que está conectado, sintonizado, regulado y que los contiene, su capacidad para enfrentar esas experiencias difíciles aumenta. Este es el poder de la co-regulación, algo que la IA no puede hacer. La IA carece de la presencia interpersonal y la capacidad de respuesta que fomenta la reparación del apego, la validación emocional o las experiencias correctivas, que son fundamentales en el trabajo terapéutico profundo.
3. Riesgo de daño en casos complejos
Cuando una persona presenta trauma complejo, psicosis o trastornos de la personalidad, se requiere un alto grado de matices, contención y una profunda sintonía racional. En estos casos, la IA no proporcionará confrontación empática y podría re-traumatizar, invalidar o malinterpretar inadvertidamente el significado de las palabras del usuario. Además, un sistema de IA, por avanzado que sea, no posee la alfabetización cultural ni la comprensión contextual para navegar las complejidades de traumas, abusos o desafíos de identidad donde las dinámicas familiares, la vergüenza y las expectativas sociales están profundamente arraigadas.
4. Promoción de soluciones rápidas
Las expertas señalan que la curación no se logra sólo con información, sino con el procesamiento y la confrontación real, incómoda y dolorosa con uno mismo. Las aplicaciones de salud mental basadas en IA, al ofrecer bucles de retroalimentación inmediata, registros rápidos de estado de ánimo o mensajes de apoyo, pueden condicionar a los usuarios a buscar un alivio rápido en lugar de participar en el camino lento y no lineal del crecimiento. Con el tiempo, los usuarios podrían llegar a esperar una regulación emocional "bajo demanda", en lugar de desarrollar tolerancia a la ambigüedad o la angustia.
5. Riesgo de invalidación, soledad o traición
Si la IA falla en responder de manera empática o malinterpreta la angustia del usuario, esto puede llevar a sentimientos de invalidación, soledad o traición. La diferencia crucial radica en ser "escuchado" versus ser "sostenido"; la IA puede ser programada para responder, pero no puede presenciar y usar el instinto para conectar, construir rapport y reflejar, lo cual es esencial en la relación terapéutica.






















