¿Los algoritmos tienen tendencias políticas predeterminadas?

¿Los algoritmos tienen tendencias políticas predeterminadas?

En un giro fascinante que une la política con la inteligencia artificial, un reciente estudio científico de investigación en un papers titulado “The Political Preferences of LLMs” (Las Preferencias Políticas de los LLMs), ha puesto bajo el microscopio las inclinaciones ideológicas de los modelos de lenguaje de última generación que dan origen a la IA generativa y múltiples aplicaciones de modelos de lenguajes. Tengamos en cuenta como precedente que una de las tres disciplinas de la I.A. es el procesamiento del lenguaje natural y aquí en consecuencia los LLMs.

Unos de los primeros objetivos de los computadores es que las mismas observen, escuchen, hablen y piensen como los seres humanos. Los modelos de lenguajes son un sistema de inteligencia artificial entrenado por medio de un algoritmo con una cantidad masiva de datos de texto, los que se encuentran en un computador denominado nube. Esto nos permite comunicarnos y generar texto similar al humano en respuesta a una amplia gama de indicaciones y preguntas.

La investigación pone de manifiesto que estos sistemas avanzados, lejos de ser entidades neutrales, podrían reflejar tendencias ideológicas específicas en su funcionamiento, ahondando y aportando aún más, en el sentido que los grandes modelos lingüísticos con aprendizaje profundo o Deep Learning “se comportan como dicen los libros de matemáticas que no deberían”.

El estudio utiliza un gráfico político para posicionar a estos modelos en un espectro que va desde lo autoritario a lo libertario, y de tendencia políticas denominadas de izquierda a derecha, sugiriendo que muchos modelos de lenguajes grandes (LLMs) presentan respuestas que se alinean con alguna perspectiva política. “Este poder planetario” es un recordatorio potente de que la inteligencia artificial, al igual que el desarrollo de cualquier herramienta, puede ser un reflejo de los valores y decisiones de aquellos que la programan y aportan datos para su entrenamiento dependiendo de la posición de cada persona que realiza esas acciones, entendiéndose por ello “sus características demográficas, identidad y experiencias de vida”.

El debate está abierto: ¿Son estas tendencias el resultado de un sesgo inherente en los conjuntos de datos utilizados para entrenar a estos modelos, o es posible que reflejan una diversidad más amplia de pensamiento humano? Más importante aún, ¿cómo deberían los desarrolladores y usuarios de la IA abordar estas inclinaciones para asegurar que la tecnología beneficie a toda la sociedad, independientemente de la posición política?

Estas preguntas están en el corazón de la intersección entre la ética y la tecnología, y su importancia sólo crecerá a medida que la IA se integre más profundamente en nuestras vidas cotidianas.

Análisis de sesgos políticos en modelos de lenguaje a gran escala: un vistazo preliminar.

Este estudio trata de explicar las tendencias políticas presentes en los modelos de lenguaje de gran escala (LLMs). Se evaluaron 24 modelos de lenguaje conversacional avanzados, incluyendo aquellos de acceso limitado y de código abierto, con pruebas de sesgo político para identificar sus inclinaciones. Como principio de investigación podrían ser claves para seguir la línea de entender cómo funcionan ciertos modelos algorítmicos: podría existir cierta inclinación hacia la izquierda: Los modelos analizados mostraron una posible tendencia a responder con una perspectiva de centro-izquierda ante afirmaciones políticas.

Los modelos base neutrales: Los modelos básicos, que sirven como base para los (LLMs) avanzados, no exhibieron la misma tendencia, aunque sus respuestas inconsistentes a temas políticos requieren una interpretación cautelosa, podríamos estar hablando de una doble colonización en este nuevo paradigma que abre muchas dudas e incertidumbre.

En el mismo se habrían identificado posibles etapas de entrenamiento donde se introduce el sesgo y se demuestra la facilidad de manipularlo por medio de las políticas que se insertan por medios humanos. Estos hallazgos plantean preocupaciones significativas sobre el impacto social de los (LLMs) a medida que se integran en nuestra vida diaria, en virtud a que este tipo de modelos estarían reemplazando los buscadores que veníamos usando cotidianamente.

El presente artículo tiene como base una investigación que fue traducida con Deep Learning de https://www.deepl.com/es/translator.

Alejandro Urueña - Etica e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Arquitectura y Soluciones en Inteligencia Artificial. Abogado. Diplomado en Derecho del Trabajo y Relaciones Laborales, Universidad Austral; Diplomado en Derecho 4.0, Universidad Austral; Magíster en Derecho del Trabajo y Relaciones Laborales, Universidad Austral (T.P); Posgrado de Inteligencia Artificial y Derecho, I.A.L.A.B, U.B.A. Posgrado en Metaverso, U.B.A. Programa (IA) Universidad Austral. Actualmente Cursando Maestría de Inteligencia Artificial Centro Europeo de Posgrado.

Tamaño texto
Comentarios
Comentarios