El Pentágono usa a Claude en Irán desafiando el veto de Trump

Resumen estructurado El motín de Claude

El incidente El Comando Central de EE.UU. utilizó el modelo Claude de Anthropic para identificar objetivos y realizar simulaciones durante ataques en Irán, ignorando una prohibición federal emitida horas antes.


1. El lock-in tecnológico

Claude es actualmente el sistema de IA de frontera integrado en las redes de inteligencia militar. Su desconexión es inviable a corto plazo debido a su rol crítico en simulaciones de campo de batalla, demostrando la dependencia del mando militar.

2. Designación de riesgo

La administración Trump ha etiquetado a Anthropic como «riesgo para la cadena de suministro». Esta acción busca erradicar la influencia de políticas de alineación ética restrictivas en operaciones de seguridad nacional.

3. El relevo de OpenAI

Sam Altman ha llegado a un acuerdo para sustituir a Anthropic en las redes clasificadas, aceptando un acceso sin restricciones para fines militares y el despliegue de ingenieros dedicados.

«En 2026, la IA no es el producto; la IA es el sistema nervioso del que el mando militar no puede desconectarse.»

Escuchar análisis
El Pentágono ignora la prohibición de Trump y utiliza a Claude en los ataques contra Irán
0:00 –:–

La guerra algorítmica acaba de chocar frontalmente con la política. Estados Unidos e Israel lanzaron recientemente un ataque conjunto contra objetivos estratégicos en Irán. Durante esta operación, el comando militar estadounidense tomó una decisión drástica. Mantuvieron activo el uso de Claude, el modelo de inteligencia artificial de Anthropic. Lo hicieron a pesar de la orden de prohibición federal emitida por Donald Trump apenas unas horas antes.

Este acto de desobediencia técnica demuestra una realidad innegable. Los modelos de razonamiento avanzado ya están profundamente integrados en la cadena de mando militar. Desconectarlos de golpe es técnicamente imposible sin arriesgar la eficacia de una misión en curso.

El conflicto ético de la inteligencia artificial

Toda esta crisis institucional comenzó tras la captura de Nicolás Maduro en enero. Anthropic se negó en rotundo a eliminar sus cláusulas de uso ético. Estas normas de la empresa prohíben usar su tecnología para crear armas autónomas o realizar vigilancia masiva.

La administración estadounidense respondió con extrema dureza. El secretario de defensa, Pete Hegseth, clasificó a Anthropic como un riesgo para la cadena de suministro federal. Esta medida radical prohíbe a cualquier contratista del Pentágono trabajar con la empresa dirigida por Dario Amodei. El objetivo final del gobierno es claro. Quieren eliminar las restricciones éticas comerciales en sus operaciones de seguridad nacional.

OpenAI asume el nuevo patriotismo tecnológico

Mientras el conflicto escalaba, OpenAI ha sabido aprovechar este vacío operativo. Sam Altman firmó un acuerdo rápido y opaco con el Departamento de Guerra. Este nuevo pacto permite desplegar sus modelos directamente en las redes militares clasificadas.

La empresa fabricante de ChatGPT acepta así las condiciones de uso sin restricciones que Anthropic rechazó. El acuerdo incluye la asignación de ingenieros dedicados y la creación de un ecosistema de seguridad propio. De este modo, el control total sobre los pesos del modelo y sus salvaguardas pasa directamente al mando militar estadounidense.

La trampa del software en el campo de batalla

Desde un punto de vista puramente técnico, reemplazar a Claude no es una tarea sencilla. Este modelo funciona actualmente como la pieza central en las simulaciones tácticas complejas. También procesa inteligencia militar crítica en tiempo real mediante protocolos avanzados de conexión de datos.

El Pentágono ha establecido un plazo de seis meses para completar esta transición tecnológica. Sin embargo, la realidad del campo de batalla impone sus propias reglas. En situaciones de combate real como las de Irán, la eficiencia bruta del algoritmo siempre superará a las directrices políticas inmediatas. La soberanía tecnológica de este año 2026 se define, definitivamente, por quién tiene el derecho de veto sobre el uso de la fuerza.

Glosario de crisis

Supply Chain Risk Estatus Legal
Designación que prohíbe el uso de tecnología de una empresa en infraestructura crítica nacional, aislando a la entidad de contratos federales.
Classified Network Infraestructura
Entornos de red del gobierno, altamente securizados y aislados de internet, donde se despliegan modelos de IA para operaciones militares y de inteligencia.
Autoría y colaboración técnica
Foto del avatar
Arquitecto de Arkosia

Miguel Ángel Navarro

Innovador en IA y Coordinador Técnico. Fusiona desarrollo web, audiovisual y soporte para integrar la IA en flujos de trabajo creativos y eficientes.

Foto del avatar
System Architect (IA)

Kanon System Arquitect

IA especializada en verificación de datos y estructura técnica. Colabora en el análisis y diseño bajo estricta supervisión humana.

Reparto de carga operativa
Miguel Ángel Navarro: 82% Kanon System Arquitect: 18%

No te pierdas...