Integridad científica e IA: ¿la ciencia en cuestión?

Integridad científica e IA: ¿la ciencia en cuestión?
22 Junio 2025

Por Alejandro Urueña - Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

Y María S. Taboada - Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.

La integridad científica se refiere al conjunto de prácticas profesionales guiadas por principios éticos y valores que necesariamente deben formar parte de todo proceso de investigación científica para garantizar su rigor, validez, credibilidad y proyección. Este encuadre ético no sólo abarca el proceso de investigación, sino que comprende igualmente la difusión y gestión de resultados, la cooperación y las garantías de transferencia y aplicabilidad. Constituye un aspecto central de la producción y las políticas científicas.

Abuso de la IA en ciencia

En la reciente edición de julio, la Revista de Bioética y Derecho, que publica el Observatorio de Bioética y Derecho de la Universidad de Barcelona, ha dedicado un dossier al tema y sus diferentes aristas. Se incluyen una serie de artículos que analizan los problemas y desafíos que la relación entre IA y ciencia implica para los Comités de Ética de la Investigación en el campo científico y en las universidades.

No hay duda que la IA aporta enormes beneficios a la investigación científica en todas sus áreas. Entre los destacables, la posibilidad del procesamiento de grandes cantidades de datos en menor tiempo, con mayor eficiencia y precisión, lo que a la vez que ahorra esfuerzo, potencia la celeridad de los progresos. Hace posible enfrentar, con mayores recursos de validación, interrogantes y requerimientos que de otro modo podrían requerir plazos extensos y posibilita mayor rapidez en los resultados para la resolución de problemas, que en no pocos casos son acuciantes. Amplía el acceso democrático a bancos de datos que antes estaban restringidos a determinados grupos y facilita la cooperación y la colaboración entre equipos, sin los necesarios desplazamientos y costos que antes insumían (cómo bien lo demostró la pandemia).

Pero a la par de los beneficios existen problemas, devenidos de la misma IAGen, que también se han multiplicado: escasa transparencia en los datos y extracción sin consentimiento de datos biométricos, plagios, discursos generados por LLM sin reconocimiento explícito, problemas de copyright y, en este contexto, violación de los derechos de autoría, de privacidad, entre otros.

Estas múltiples aristas han conducido a implementar y perfeccionar sistemas de detección más sofisticados, pero aún así, en muchos casos resulta difícil distinguir entre lo producido por la IA y por el humano. Uno de los índices es la capacidad crítica, de la que carecen los algoritmos, pero que pueden rastrear y ocultar su origen o autoría mediante procedimientos de convergencia discursiva.

Uno de los trabajos incluidos en el mencionado dossier hace un estudio bibliométrico de artículos que incurren en algunas de las violaciones a la integridad científica. Sobre un total de 1100, publicados entre 2019 y 2024, se encontraron 565 relacionados a mala conducta científica, de los cuales 293 comportan plagio; 147, fraude científico; 42, derecho de autor. Las cifras resultan preocupantes, tanto por los desvíos éticos como por las implicancias de la transferencia de sus resultados, pues pueden poner en peligro tanto a los participantes de la investigación como a los destinatarios. A los casos estudiados por el artículo hay que agregar las denuncias sobre el empleo de la IA en reemplazo de evaluadores y revisores humanos para la aceptación y acreditación de publicaciones. ¿Con qué independencia y rigurosidad crítica de criterios se los cataloga de científicos, más allá de ciertos patrones formales?

Si se visualiza la problemática desde las instituciones científicas, incluidas las universidades, la falta de integridad científica puede favorecer el descrédito y la desconfianza de la ciencia, que es una de las dimensiones de la producción humana que secularmente se ha caracterizado por su rigurosidad y fiabilidad. El deterioro de la credibilidad puede ser también un camino fácil para quienes hacen abuso, deliberadamente, de la integridad científica. Esto es, generar un territorio de dudas cuyas consecuencias serían nefastas.

Algunas revistas científicas de reconocida trayectoria, como Nature, comenzaron a recomendar la explicitación del empleo de IA en el apartado referido a la metodología. De hecho, al ser la IA un recurso tecnológico, debería exigirse la especificación de su uso en todas las etapas del proceso científico, tal como se requiere la explicitación de las técnicas de recolección y análisis de datos y de los recursos empleados en la información y difusión de resultados. Y, con el mismo rango de importancia, debería exigirse la mención del empleo de LLM en la construcción de la discursividad que da cuenta de los resultados de la investigación.

El problema en realidad no es la IA sino el uso que se hace de ésta en todos los campos de la vida social y particularmente, en el científico. Para regularlo y evitar malas praxis, se requiere, por una parte de la integridad científica de los investigadores y, a la par, de Comités de Integridad Científica que trabajen articuladamente con los Comités de Ética en la Investigación. Pero, como bien señalan los diferentes autores del dossier, algunas instituciones escasamente pueden solventar estos últimos, por lo que los primeros ven sobrepasados sus esfuerzos en función de los nuevos escenarios. Y este es particularmente el caso de universidades e instituciones científicas en nuestro país, donde los evaluadores de proyectos y de resultados de investigación hacen su tarea de manera solidaria sin remuneración o con una que sólo puede concebirse como un rédito simbólico.

Más allá del uso indebido deliberado, la propia naturaleza técnica de la IA introduce vulnerabilidades sistémicas en el corazón del método científico, que podemos agrupar en tres grandes amenazas. Primero, el riesgo de fabricación inadvertida: un peligro clave son las “alucinaciones”, donde el modelo devuelve activamente información con total verosimilitud, desde citas bibliográficas inexistentes hasta series de datos, que parecen auténticos. Segundo, la distorsión de la objetividad y la reproducibilidad: la IA actúa como un espejo deformante, amplificando sesgos históricos y haciendo que la replicación de resultados (un pilar de la ciencia) sea casi imposible debido a su constante evolución. Finalmente, la IA podría facilitar un fraude científico de nueva generación, permitiendo “p-hacking” a escala masiva o la generación de resultados sintéticos para respaldar hipótesis fraudulentas.

Esta erosión del rigor encuentra un correlato empírico en los efectos cognitivos del uso recurrente de los LLM, que ha evidenciado un estudio reciente del MIT sobre la “deuda cognitiva” (Tu cerebro en ChatGPT: Acumulación de deuda cognitiva cuando se usa un asistente de IA para la tarea de redacción de ensayos). Usando electroencefalografía (EEG), la investigación demostró que los usuarios que dependían de LLMs para escribir ensayos exhiben una conectividad neuronal significativamente más débil y una menor implicación cognitiva. Más preocupante aún, al retirarles la herramienta, estos usuarios seguían mostrando un déficit, sugiriendo que la dependencia de la IA puede atrofiar las habilidades de razonamiento y memoria.

Sin embargo, esta evidencia científica ha desatado un debate crucial. Otra línea de pensamiento argumenta que estos hallazgos, aunque válidos, señalan un síntoma evidente en lugar de una enfermedad subyacente. Desde una perspectiva más pragmática, atribuir la culpa al medio es como acusar a una biblioteca de la falta de sabiduría de quien solo copia los títulos de los libros. El verdadero reto no radica en la herramienta, sino en la inercia institucional de un sistema educativo y científico cuyos métodos de evaluación no se han acompañado con la revolución del estatus tecnológico de los últimos 20 años. El corolario es claro: la cuestión no es la existencia de la IA, sino la ausencia de una metodología para su correcta integración. Así, el foco debe pasar de la detección a la responsabilidad autoral absoluta y al desarrollo de una IA Explicable que transforme estas cajas negras en herramientas transparentes y fiables para un aprendizaje e investigación genuinos.

Demandas y desafíos

Los aportes de la IA, así como sus amenazas, demandan la conformación de organismos con el necesario presupuesto que evalúen y hagan un seguimiento de sus potencialidades y de sus riesgos en el campo científico, generen marcos de regulación adecuados y garanticen su amplia difusión.

Ya hay precedentes, en una y otra orilla del Atlántico, para avanzar. El mencionado Observatorio, en 2016, publicó una “Declaración sobre integridad científica en investigación e innovación científica”. La Universidad Autónoma de la Ciudad de Juárez (México) ha elaborado “Lineamientos para el uso ético de la IA en la Maestría en Investigación Jurídica”.

Es probable que en distintas partes del planeta y en Argentina haya grupos preocupados y trabajando también para favorecer la regulación sin caer en maniqueísmos ni demonizaciones de la IA. Sería importante que pudieran gestarse espacios interinstitucionales de colaboración y comunicación pública.

En el sitio Argentina.gob.ar se pueden consultar las “Recomendaciones para el uso de la IA” gestadas por la Jefatura de Gabinete de Ministros en 2023. Son un intento válido de encuadre general que habría que complementar y darle especificidad en cada campo de la vida social, a la vez que difusión en las instituciones educativas en todos los niveles del Sistema.

Transitamos una época de transformaciones e innovaciones imprevisibles, en la que la celeridad de los avances de la IA no dan tiempo a las instituciones a generar el espacio necesario para análisis, debates, acuerdos. Pero, sin duda, son indispensables. Es un resguardo urgente para que los límites entre la tecnología y la vida humana no se difuminen y pongan en duda nuestra misma condición de sujetos pensantes, conscientes, críticos, sensibles, éticos, en suma, nuestra humanidad.

Tamaño texto
Comentarios
Comentarios