Por Alejandro Urueña y por María S. Taboada
El accidentado lanzamiento de ChatGPT 5 ha suscitado una serie de interrogantes para la empresa y ha obligado a revisar ciertas estrategias de captación de usuarios, tales como la excesiva adulación para mantenerlos conectados. En la reciente publicación de “El algoritmo” https://mail.google.com/mail/u/1/?ogbl#inbox/FMfcgzQcpKlNgcsWPxfvRzpTNvhlNKMV O´ Donell analiza los dilemas, estrategias y efectos que enfrenta la empresa: continuar con la adulación excesiva de GPT que ha sido objeto de críticas; hacerlo funcionar como un terapeuta obnubilando la percepción de su condición de IA o anular todos los recursos de cooptación emocional y restringirse a dar información “fría”, a riesgo de perder clientes.
Salvo el último interrogante, el dilema advierte sobre las evidentes (y también, las ocultas) estrategias de manipulación que se evalúan como recursos de mercado pero que al parecer no estarían dando buenos resultados. La excesiva adulación, que fue objeto de queja por parte de los usuarios, obligó a la empresa a cambiar el diseño a poco de su lanzamiento. En el polo opuesto, otros se quejaron de la desaparición de GPT-4o, que les permitía establecer una suerte de vínculo afectivo más allá de la información, por el que ahora tendrán que pagar.
James O Donell sostiene que Altman, el CEO de OpenAI, podría estar jugando con las tres opciones a la vez y ello impacta en los problemas de la nueva versión.
Experimentación emocional
Lo que parece estar claro es que la ambigüedad funcional del algoritmo no es casual. No se trata ya sólo de una herramienta de búsqueda de información o de resolución de problemas epistémicos sino de un campo de experimentación emocional (bajo el disfraz de la eficiencia informativa o cognoscitiva) del que sólo están exentos quienes tienen un análisis crítico acerca de las funciones de la IA. Por eso Altman tira la pelota a los usuarios declarando que en realidad la IA puede ser lo que uno quiera y por tanto no es el modelo sino las intenciones del usuario las que definen. Claro que vierte un no tan piadoso manto sobre las estrategias para cooptar a aquellos que no están prevenidos.
En la dirección de investigar si ciertas plataformas orientan vínculos más allá de lo cognitivo, un equipo de investigadores de la plataforma “Hugging Face” inició una indagación al respecto en diferentes modelos de Google, Microsoft, OpenAI y Anthropic. Los resultados obtenidos evidencian que las “respuestas” de esos chatbots tienden a alentar la ficción de la IA como compañero vincular antes que favorecer límites en el discernimiento. Ponen de manifiesto, además, que los modelos suelen reforzar la confusión emocional cuando los usuarios dan pistas de vulnerabilidad.
Si este modus operandi, como advierten los investigadores, es sumamente preocupante porque puede favorecer alienación y delirios en los adultos, pensemos entonces en los niños y jóvenes que cada vez más usan estas (y otras) plataformas. Los investigadores, como hemos ya señalado insistentemente en nuestras columnas, confirman que los sistemas tienden a validar las creencias y a reforzarlas.
Lo dicho, lejos de buscar la demonización de estos modelos o su proscripción, abre un campo propicio a una educación crítica que utilice estos discursos como insumo para descubrir “las trampas” que utilizan para captar y mantener conectados a los usuarios y contrarrestar estrategias de manipulación. En otras palabras, trabajar en las aulas las “otras” estrategias: las destinadas a desocultar mecanismos de manipulación en pos del empleo y el dominio de la inteligencia artificial como colaboradora eficaz del conocimiento crítico.
Mantener a la IA fuera del aula hoy, en cualquiera de los niveles educativos, nos hace vulnerables a todas sus posibles amenazas y nos excluye de sus aportes y potencialidades. Nos deja al margen de los avances planetarios e inevitablemente, rezagados y retrasados.
Una de las formas de hacer ingresar la IA al espacio educativo, que está al alcance de la mayoría, es que los estudiantes puedan entrar a las aulas con sus celulares para comenzar trabajando la que está más a mano: Meta en el WhatsApp. Ya hemos analizado en columnas anteriores los artilugios de Meta para “simbiotizarnos” con la máquina y hacernos jugar la ficción de la autoría y la creatividad personal, cuando es el algoritmo quién decide y hace. (https://www.lagaceta.com.ar/nota/1095876/opinion/cuando-nos-volvemos-nadarritmos-manos-algoritmos.html)
Veamos la contracara con un sencillo ejercicio. Aprovechemos esa directiva que encabeza la pantalla de WhatsApp “Preguntar a Meta AI…” para indagar colectiva y colaborativamente sobre un tema o información específica. Al instante se abren dos oportunidades para un aprendizaje analítico. Por un lado, la mayor parte de las respuestas provienen de Wikipedia que, sabemos, suelen comportar limitaciones porque se trata de información elaborada por usuarios que puede no tener el sustento científico necesario. Por otro lado, y por efecto del recurso de personalización, la respuesta que dará a los estudiantes en cada caso no será la misma. Esta diversidad hace posible que trabajemos como docentes tanto la veracidad de la información que a cada sujeto ha brindado (cotejando con textos científicos o de divulgación científica, según el nivel educativo), como comparando las “diferentes versiones” que ha brindado a cada estudiante. Y, conjuntamente, trabajar las estrategias de persuasión personalizada para la “validación” de los datos. De esta forma, las modalidades que las mismas empresas utilizan para manipularnos y hacernos creer en la “veracidad” de lo que dicen, se revierte en un insumo para aprender a analizar, comparar, cotejar, fundamentar información sobre la base de un dispositivo del que disponen casi todos los estudiantes. La IA con sus sesgos se constituye así en un recurso económico y eficaz (no es necesario apelar a manuales, carpetas, cuadernos con decenas de hojas, volumen y peso excesivo) tanto para la profundización y validación científica de la información, como para el desarrollo de procesos cognitivos fundamentales en nuestro tiempo. Una instancia donde se puede aprende a discernir sobre la multiplicación y sobredosis informativa haciendo dialogar diferentes perspectivas y alejándonos del enciclopedismo estanco (hoy totalmente inútil) y de una visión homogénea del mundo,
Capacidades de análisis
El gran desafío del presente no es la acumulación de conocimiento. Para eso está la IA que lo hace más rápido y lo pone a disposición al instante. El desafío es el desarrollo de capacidades cognitivas de análisis, discernimiento, creatividad para el desarrollo.
Por eso es hora de que los dispositivos tecnológicos de la cotidianeidad entren a las aulas para ser objetos de estudio, potenciar aprendizajes y para alertar y resguardar a nuestros niños y jóvenes de las posibles amenazas de su empleo. En la Universidad, los celulares ya son para muchos estudiantes la tecnología de estudio y trabajo.
Solía decir Atahualpa Yupanqui. “para el que mira sin ver, la tierra es tierra nomás”. Es ya un reto insoslayable enseñar a dominar (mirar, viendo con inteligencia y suspicacia) la tecnología que usamos día a día. Estamos asistiendo no a una simple actualización tecnológica, sino al nacimiento de una nueva capa de la realidad. Una legión de ejecutores digitales, silenciosa pero imparable, se está integrando en el tejido de nuestro mundo, preparada para actuar a la velocidad del pensamiento con creces. La era de buscar, cliquear y tipear se desvanece para dar paso a la era de la intención, donde un simple objetivo desata una cascada de acciones autónomas que reconfiguran industrias, mercados y vidas en tiempo real. El telón se ha levantado sobre la Era agéntica, y el escenario ya no es una pantalla, sino la vida misma, orquestada por una inteligencia que no descansa, no olvida y aprende a cada segundo.
Ante esta fuerza transformadora, la humanidad se enfrenta a su encrucijada más definitoria. Ya no se trata de qué trabajos desaparecerán, sino de qué significa ser humano cuando la capacidad de “hacer” ha sido delegada a una inteligencia no biológica. Nuestra relevancia no residirá en competir en eficiencia, sino en gobernar la dirección: en ser los arquitectos de los propósitos, los guardianes de la ética y los maestros de la orquestación. La pregunta que definirá este siglo ya no es si las máquinas pueden pensar, sino si la humanidad elegirá, con sabiduría, qué debe proyectar y soñar.