Por Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
Por María S. Taboada
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
La gran ilusion de la ley de la IA, comenzo a proyectarse en marzo pasado, el Consejo de Ministros de España (https://avance.digital.gob.es/es-es/Participacion/Paginas/DetalleParticipacionPublica.aspx?k=468) presentó el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial (IA), con el objetivo de adaptar la legislación española al Reglamento Europeo de IA, garantizando un empleo ético, transparente y responsable de esta tecnología.
Este anteproyecto establece la obligación de identificar claramente los contenidos generados mediante inteligencia artificial, facilitando que los ciudadanos puedan diferenciar fácilmente entre información real y virtual. Asimismo, define qué aplicaciones estarán prohibidas, cuáles requerirán autorización previa y cuáles podrán utilizarse libremente. También aborda el controvertido uso del reconocimiento biométrico en tiempo real, limitándolo únicamente a circunstancias excepcionales con autorización expresa de las autoridades competentes.
Consciente de que en la era digital las apariencias pueden engañar más que nunca, el Ejecutivo español busca ahora imponer legalmente la obligación de etiquetar aquellos contenidos creados mediante inteligencia artificial (IA), acompañando la medida con sanciones para quienes opten por un uso “creativo” y poco ético de esta tecnología.
La norma exigirá identificar aquellos contenidos que hayan sido generados por esta tecnología, con sanciones que pueden llegar a los 35 millones de euros o el 7 % de la facturación de las empresas. La regulación atiende a que los usuarios puedan diferenciar claramente los contenidos generados por humanos de aquellos que son producto de algoritmos. De esta manera intenta poner tope a estrategias de manipulación o de circulación de falacias en las que pueden quedar entrampados los usuarios.
La regulación se enmarca en el llamado “escudo europeo” para la protección de los derechos digitales y constituye también un resguardo frente a recursos subliminales que pueden direccionar decisiones y acciones sin conciencia o consentimiento de los sujetos. Contempla el contexto y el poder tecnológico de los algoritmos que pueden “alimentarse” de los datos personales e identitarios de los sujetos para usarlos a favor de los intereses económicos de las grandes tecnológicas o de las startups. Evita en este sentido que los algoritmos puedan “secretamente” reconocer predisposiciones e inclinaciones de los usuarios. Particularmente tiene un efecto de protección sobre menores y personas en alguna situación vulnerable, susceptibles de caer en la redes de los algoritmos.
Por eso la regulación se articula con aquella que protege los datos biométricos a fin de potenciar la defensa de los derechos humanos y el acceso pleno a los beneficios sociales.
La amplitud de la regulación incluye un sinnúmero de productos, desde los industriales hasta los juguetes, así como los sistemas utilizados en la administración y aplicación de políticas públicas.Sin embargo, la penalidad para este último caso es sustancialmente menor, razón por la cual algunos se preguntan por qué se incluye este ítem. La venalidad de las penas para funcionarios autoriza a sospechar que se da piedra libre para el campo político “perdonando” usos que pueden ser catalogados de corrupción.
El anteproyecto aprobado por el Consejo de Ministros aspira a ofrecer a los usuarios comunes y corrientes la tranquilizadora ilusión de poder distinguir fácilmente lo real de lo virtual. Plataformas como Instagram ya aplican voluntariamente sistemas que marcan cuándo un contenido ha sido moldeado o directamente inventado por una IA, adelantándose así a esta normativa gubernamental. Por eso, la regulación exige etiquetar todos los discursos multimodales realizados por IA, es decir, debe identificar texto verbal, imagen, audio o video producido por IA que ficcionaliza como si fueran reales a personas, acciones o dichos, lo que se conoce como “deepfake”.
En un mundo que puede ser recreado por la IA, diluyendo los límites entre lo real y lo virtual, el anteproyecto supone un avance para delimitar fronteras claras, aún con sus limitaciones. Sin embargo, y vale insistir al respecto, la legislación, los derechos y el uso de la IA, reclaman de una sostenida educación que promueva un acceso crítico y responsable de sus potencialidades y sus riesgos.
Este loable intento por embridar al algoritmo y tranquilizar al ciudadano común con etiquetas visibles, la disparidad flagrante en el régimen sancionador proyecta una sombra irónica sobre sus nobles intenciones. Cabe preguntarse si este flamante “escudo protector” resistirá la prueba de la realidad o si, para ciertos actores exentos de la multa millonaria, demostrará tener la consistencia de un holograma: una “ilusión tranquilizadora” con consecuencias muy tangibles para unos y convenientemente etéreas para otros, especialmente cuando depende de la “creatividad” algorítmica”.