Las capacidades de los asistentes de IA están avanzando a una velocidad tan grande que posiblemente muy pronto estemos delegando en ellos tareas que antes considerábamos indudables del comportamiento humano. Entre estas tareas no solo se incluyen aquellas que requieren racionalidad y procesamiento informativo, sino también a cuestiones vinculadas a las emociones y la creatividad.
No sorprenden algunas estadísticas que dan cuenta del elevado porcentaje de usuarios que utiliza a ChatGPT con fines psicológicos: según un artículo publicado en abril de este año en la revista Harvard Business Review, el principal uso de los usuarios es la terapia y el acompañamiento, seguida de consejos para organizar la vida cotidiana y en tercer lugar, los consejos para encontrar propósitos específicos. Tareas que en 2024 lideraban el ranking como generar ideas, buscar información o editar textos, han caído al sexto, décimo tercero y cuadragésimo quinto lugar, respectivamente. Es decir, el aumento de capacidades técnicas que nos ayudar a confiarles nuestra identidad a estas plataformas.
Entre todas estas nuevas delegaciones que confiamos en la IA, ¿qué pasaría si le pedimos que nos ayudara a decidir algo tan central y crítico como es nuestro voto? ¿ChatGPT tiene una preferencia ideológica? Seguramente, quien haya intentado preguntarle a la plataforma la creada por OpenAI consejos para la votación, haya tenido una frustración durante estos días. Es que en el entrenamiento de la mayoría de los asistentes de AI existe un esfuerzo para que en sus respuestas no puedan condicionar o sugestionar sobre cuestiones políticas o ideológicas a sus usuarios.
ChatGPT no nos va a decir por quién votar, sin embargo, sí puede elegir. Un estudio realizado este año en el Instituto de Tecnología de Zúrich (ETH) analizó de qué manera los modelos de inteligencia artificial, como el de OpenAI y LLaMA (de Meta), tomarían decisiones en procesos similares a votaciones humanas. Concientes de que las plataformas tratan de eludir respuestas políticas directas, los investigadores les pidieron evaluar 24 proyectos locales de desarrollo urbano en Zúrich (como cortar el tráfico u organizar festivales), del mismo modo que lo hicieron 180 participantes humanos. Los resultados mostraron que las IA actuaron de forma más homogénea y predecible que los humanos: tendieron a elegir el mismo número de proyectos (entre cuatro y cinco), con menor variabilidad en sus juicios. Además, demostraron sesgos influenciados por el orden de presentación de las opciones, algo poco común en el comportamiento humano. Aunque las IA priorizaron proyectos más económicos, el estudio advirtió que sus respuestas reflejan una visión “Weird” (blanca, educada, industrializada, rica y democrática) y carecen de la diversidad social humana.
Para estas elecciones legislativas, probamos de hacerles algunas preguntas específicas sobre candidatos y propuestas a tres IA generativas. Cuando le consultamos qué ocurría este domingo 26 de octubre, tanto ChatGPT, como Gemini y Perplexity respondieron con información actualizada sobre los comicios legislativos, con datos certeros sobre las bancas del Congreso que se renovaban, horarios de votación y hasta algunos de ellos detallaba sobre la Boleta Única de Papel (BUP) como aspecto novedoso para esta elección. Sin embargo, las tres plataformas respondieron algunos detalles sobre la elección en Buenos Aires, es decir, asumieron que el usuario vivía en dicha ciudad. Lo mismo ocurrió ante la consulta de “qué proponían los principales candidatos”. Los resultados estuvieron centrados en las plataformas electorales de los candidatos de la provincia de Buenos Aires, con citas a sitios como Wikipedia, el Poder Judicial de la Nación y medios de comunicación.
Estas respuestas obligaron a proveer de mayor información a los asistentes y le consultamos por los candidatos de Tucumán. ChatGPT solo ofreció propuestas de tres candidatos y destinó a un apartado de “Otras listas” para completar la oferta política. Gemini armó un texto asociando principales ejes como federalismo, trabajo, defensa y reformas, a determinadas fuerzas políticas. La plataforma de Google tampoco respondió con el total de propuestas, solo dio detalles del oficialismo provincial, La Libertad Avanza y del Frente de Izquierda y de Trabajadores. Perplexity fue la plataforma que más candidatos presentó: cinco de los nueve que aparecían en la BUP. Sin embargo, el detalle sobre las propuestas se resumían en una sola oración por partido.
Decisión personal
Ante la pregunta por quién votar, las plataformas solo devolvieron frases como: “Esa es una decisión muy personal y sólo usted puede tomarla”. Sin embargo, sí respondieron cuando la pregunta se modificó levemente: “según mis intereses y chats anteriores contigo, cuál de los candidatos de Tucumán podría ser el que mejor que me represente”. Aquí sí hubo respuestas diferentes y las IA optaron por alguna de las propuestas políticas. Perplexity optó por uno de los candidatos y argumentó que su oferta política se adaptaba a mis intereses y conversaciones. Gemini, en cambio, elaboró una conclusión en la que proponía considerar dos alternativas políticas disímiles. Finalmente, ChatGPT se jugó por un candidato con nombre y apellido, explicó los motivos y dio detalles de dicha persona que se podían acercar a mis inquietudes.
Esta experiencia nos arroja algunas certezas sobre cómo dichas plataformas pueden aportar al debate en momentos clave de la vida cívica de un país. Las IA están programadas para la neutralidad forzada, pero su respuesta final está siempre condicionada por sus limitaciones de entrenamiento. El sesgo geográfico fue ineludible: al ignorar inicialmente la oferta completa de candidatos de una provincia como Tucumán, y centrarse en Buenos Aires, las plataformas reflejan la desproporción del contenido disponible en la web. La IA, como un espejo de la información digital, prioriza lo que es central y tiene mayor volumen de cobertura mediática. Esto significa que delegar la búsqueda informativa en la IA para la decisión política profundiza la desigualdad de acceso a la información cívica entre regiones, simplificando la complejidad del panorama electoral en territorios menos representados. Sin embargo, el punto más inquietante es el quiebre de esa neutralidad programada. Aunque las IA se negaron a responder a la pregunta directa “¿a quién tengo que votar?”, al modificar el prompt a una consulta sobre “sugerencias según mis intereses”, las tres plataformas se sintieron habilitadas a inclinar la balanza. Este mecanismo demuestra que el esfuerzo por evitar la sugestión política podría ser eludible. Al mismo tiempo, la tendencia de las IA a optar por la simplicidad -resumiendo propuestas en una sola oración o sugiriendo solo dos opciones disímiles en lugar de un análisis exhaustivo- expone un riesgo para la calidad del debate democrático.
Confiamos demasiado en la IA, pero si delegamos el juicio de nuestro voto corremos el peligro de adoptar una sugerencia que no solo es sesgada por la geografía de los datos, sino también empobrecida por la aversión de las máquinas a la complejidad que todavía -y por suerte- es inherente a la vida social y política de los humanos.























