Por Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

Por María S. Taboada
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.

En octubre de 2023, H. Kissinger y G. Allison se interrogan, en un escrito profético, acerca del papel de la IA en los conflictos bélicos. Afirman, luego de analizar con especialistas tecnológicos el problema, que un avance sin control de la IA puede llevar a consecuencias catastróficas. Mientras los efectos de la bomba nuclear han persuadido a los líderes de las grandes potencias del riesgo de seguir desarrollando su producción, la IA abre nuevos escenarios insospechados. Dos potencias con desarrollos exponenciales en este campo, tienen el futuro en sus manos: EEUU y China. A éstas les cabe -según los analistas- un diálogo conciliador frente a esta “tecnología aterradora”. Kissinger y Allison ponen en juego preocupaciones inquietantes: “¿Amenazarán las máquinas con capacidades sobrehumanas la hegemonía de la humanidad en el universo? ¿Permitirá la IA que individuos o pequeños grupos produzcan virus capaces de matar a una escala antes reservada a las grandes potencias? ¿Podría la IA debilitar la disuasión nuclear, pilar del orden mundial actual?”

Los discursos de los gigantes tecnológicos que preanuncian -mesiánicamente- la presencia de una IA general, que emula las capacidades humanas, o una superinteligencia, que las supera, evidencian la pertinencia de las suposiciones planteadas. De hecho, OpenAI y Google esta semana han presentado sus modelos GPT 5.1 y Gemini 3 con estrategias argumentativas que sobrevaloran las “capacidades cognitivas” de sus modelos.

Armas nucleares e IA: diferencias

Un aspecto crucial que distingue ambos escenarios tecnológicos es que, en el caso de las armas nucleares, son los gobiernos los que definen y lideran su desarrollo; en cambio, la IA es producida por emprendedores, tecnólogos y empresas privadas. Las decisiones están hoy en manos de organizaciones supraestatales: Microsoft, Google, Amazon, Meta, OpenaAI, Alibaba, Tencent, Baidu. Y la competencia es sin límites y a cualquier precio. Por encima y más allá de los Estados, esta IAcracia puede convertirse en el nudo gordiano que definirá la paz o la guerra planetaria, ya que “los intereses nacionales se verán relegados a un segundo plano”.

Las armas nucleares requieren un proceso de producción complejo y sus productos son tangibles; en cambio, la IA es digital y conceptual, difícil de registrar. La IA se desarrolla a una velocidad que imposibilita negociaciones prolongadas. Requiere a cada paso regulaciones que, por lo general, siempre van detrás de los avances: inevitablemente son retroactivas. Los poderes de la IA exigen debates y acuerdos nacionales y supranacionales en la interrelación entre gobiernos y sectores privados. La acción clave es entonces responsabilidad por parte de todos los actores con control sobre esta tecnología.

El punto clave de la relación guerra-paz-IA es la posible automatización de la guerra. Los expertos consideran que estamos lejos de esta posibilidad. Sin embargo, la IA ya se está empleando para la planificación y la logística (sabotajes, espionaje) y para la selección de objetivos: los conflictos entre Rusia y Ucrania e Israel y Gaza son una muestra patente de ello. Por ejemplo, Israel ha desarrollado el sistema “Lavender” que le ha permitido identificar cerca de 37.000 objetivos humanos en Gaza .

El problema no es la IA en sí misma, sino que los modelos tengan sesgos de entrenamiento, a los que se suman los sesgos del personal militar. Los ataques a grupos humanos desvalidos que hemos visto en los actuales conflictos bélicos, ¿son productos de sesgos? Y si no lo son, las decisiones humanas sobre estas armas automatizadas, secundarizan el problema de la automatización, porque de uno u otro modo, se trata de la letalidad de grupos humanos que están expuestos a las decisiones de otros humanos que usan IA como una herramienta de precisión homicida.

Y por detrás, está el negocio que se lleva vidas. Como bien advierten Helen Warrell y James O’Donnell en el último artículo: “el dinero manda. OpenAI y otras empresas necesitan empezar a recuperar parte de las inimaginables cantidades de dinero que están invirtiendo en entrenar y operar estos modelos. Y pocas tienen recursos más abundantes que el Pentágono. Los responsables de la defensa europea también parecen dispuestos a gastar a manos llenas.”

En lo que va del año la inversión en tecnología de guerra ya ha duplicado la de 2024. Entre la guerra y la paz, el negocio de la IA parece definir las fronteras. A lo largo de la historia de la humanidad, los mayores avances tecnológicos han surgido de las luchas económicas y los conflictos bélicos. La IA no es una excepción. Pero sí lo son quiénes la gobiernan: las empresas tecnológicas que están por encima y más allá de los aún se pueden denominar “gobiernos”.