El ejército de EE. UU. utilizó la inteligencia artificial para la captura de Nicolás Maduro
El modelo de inteligencia artificial Claude, desarrollado por la empresa Anthropic, fue utilizado por las fuerzas militares de Estados Unidos durante la reciente operación destinada a capturar a Nicolás Maduro en Venezuela. Según reveló este sábado el diario Wall Street Journal, este caso se convierte en uno de los ejemplos más notorios de cómo el Departamento de Defensa estadounidense está integrando la IA en sus misiones tácticas.
La incursión militar en territorio venezolano incluyó bombardeos en diversos puntos de Caracas y dejó un saldo de 83 personas fallecidas, de acuerdo con datos proporcionados por el Ministerio de Defensa de Venezuela. El uso de esta tecnología ha generado controversia, dado que las políticas de uso de Anthropic prohíben explícitamente que Claude sea empleado para fines violentos, el desarrollo de armamento o labores de vigilancia.
Este incidente marca la primera vez que se tiene constancia del uso de un modelo de Anthropic en una operación clasificada del Pentágono. Aunque no se ha detallado el rol específico de la herramienta -cuyas funciones abarcan desde el análisis de documentos complejos hasta el pilotaje de drones autónomos-, su presencia en el campo de batalla plantea interrogantes sobre el control de estas tecnologías.
Un portavoz de Anthropic evitó confirmar al medio norteamericano si Claude participó en la operación, limitándose a señalar que cualquier uso de su tecnología debe respetar sus directrices éticas. Por su parte, el Departamento de Defensa de EE. UU. no se ha pronunciado sobre las filtraciones. Según las fuentes citadas por el WSJ, el acceso a la IA se habría dado a través de la alianza estratégica de Anthropic con Palantir Technologies, una firma proveedora del ejército y de agencias federales que también declinó hacer comentarios.
La integración de la inteligencia artificial en los arsenales militares es una tendencia al alza a nivel global. El ejército de Israel ya emplea drones autónomos y sistemas de IA para la selección de objetivos en Gaza, mientras que EE. UU. ha utilizado tecnologías similares para dirigir ataques en Irak y Siria en años recientes.
Sin embargo, este avance tecnológico no está exento de críticas. Diversos expertos advierten sobre los peligros de delegar en algoritmos la decisión de quién debe vivir o morir, señalando que los errores de cálculo de las máquinas pueden tener consecuencias catastróficas.



















