El Pentágono usa a Claude en Irán desafiando el veto de Trump
Resumen estructurado El motín de Claude
El incidente El Comando Central de EE.UU. utilizó el modelo Claude de Anthropic para identificar objetivos y realizar simulaciones durante ataques en Irán, ignorando una prohibición federal emitida horas antes.
Claude es actualmente el sistema de IA de frontera integrado en las redes de inteligencia militar. Su desconexión es inviable a corto plazo debido a su rol crítico en simulaciones de campo de batalla, demostrando la dependencia del mando militar.
La administración Trump ha etiquetado a Anthropic como «riesgo para la cadena de suministro». Esta acción busca erradicar la influencia de políticas de alineación ética restrictivas en operaciones de seguridad nacional.
Sam Altman ha llegado a un acuerdo para sustituir a Anthropic en las redes clasificadas, aceptando un acceso sin restricciones para fines militares y el despliegue de ingenieros dedicados.
«En 2026, la IA no es el producto; la IA es el sistema nervioso del que el mando militar no puede desconectarse.»
La guerra algorítmica acaba de chocar frontalmente con la política. Estados Unidos e Israel lanzaron recientemente un ataque conjunto contra objetivos estratégicos en Irán. Durante esta operación, el comando militar estadounidense tomó una decisión drástica. Mantuvieron activo el uso de Claude, el modelo de inteligencia artificial de Anthropic. Lo hicieron a pesar de la orden de prohibición federal emitida por Donald Trump apenas unas horas antes.
Este acto de desobediencia técnica demuestra una realidad innegable. Los modelos de razonamiento avanzado ya están profundamente integrados en la cadena de mando militar. Desconectarlos de golpe es técnicamente imposible sin arriesgar la eficacia de una misión en curso.
El conflicto ético de la inteligencia artificial
Toda esta crisis institucional comenzó tras la captura de Nicolás Maduro en enero. Anthropic se negó en rotundo a eliminar sus cláusulas de uso ético. Estas normas de la empresa prohíben usar su tecnología para crear armas autónomas o realizar vigilancia masiva.

La administración estadounidense respondió con extrema dureza. El secretario de defensa, Pete Hegseth, clasificó a Anthropic como un riesgo para la cadena de suministro federal. Esta medida radical prohíbe a cualquier contratista del Pentágono trabajar con la empresa dirigida por Dario Amodei. El objetivo final del gobierno es claro. Quieren eliminar las restricciones éticas comerciales en sus operaciones de seguridad nacional.
OpenAI asume el nuevo patriotismo tecnológico
Mientras el conflicto escalaba, OpenAI ha sabido aprovechar este vacío operativo. Sam Altman firmó un acuerdo rápido y opaco con el Departamento de Guerra. Este nuevo pacto permite desplegar sus modelos directamente en las redes militares clasificadas.
La empresa fabricante de ChatGPT acepta así las condiciones de uso sin restricciones que Anthropic rechazó. El acuerdo incluye la asignación de ingenieros dedicados y la creación de un ecosistema de seguridad propio. De este modo, el control total sobre los pesos del modelo y sus salvaguardas pasa directamente al mando militar estadounidense.
La trampa del software en el campo de batalla
Desde un punto de vista puramente técnico, reemplazar a Claude no es una tarea sencilla. Este modelo funciona actualmente como la pieza central en las simulaciones tácticas complejas. También procesa inteligencia militar crítica en tiempo real mediante protocolos avanzados de conexión de datos.
El Pentágono ha establecido un plazo de seis meses para completar esta transición tecnológica. Sin embargo, la realidad del campo de batalla impone sus propias reglas. En situaciones de combate real como las de Irán, la eficiencia bruta del algoritmo siempre superará a las directrices políticas inmediatas. La soberanía tecnológica de este año 2026 se define, definitivamente, por quién tiene el derecho de veto sobre el uso de la fuerza.
Fuentes verificadas
- 01. US military used Anthropic in Iran strike despite ban order by Trump
- 02. Pentagon moves toward blacklisting Anthropic in AI safeguards fight
- 03. Official Statement by President Donald J. Trump on Anthropic
- 04. OpenAI gives Pentagon AI model access after Anthropic dustup
- 05. Hegseth declares Anthropic a supply chain risk
