El 28 de febrero de 2026 será recordado en la historia militar, no solo por el lanzamiento de la operación "Epic Fury" (en castellano: Furia épica) contra objetivos específicos en Irán, sino también por el uso estratégico y generalizado de la inteligencia artificial (IA) para decidir la pertinencia de los objetivos militares.
La incorporación de modelos de lenguaje como Claude, desarrollado por Anthropic, en la estructura de mando del Pentágono, especialmente dentro del sistema Maven Smart del Comando Central (CENTCOM), dio el banderazo a la "Primera Guerra de la IA".
La IA ha pasado de ser una herramienta de asistencia periférica para convertirse en el factor clave para reconfigurar el denominado "ciclo de decisión".

Durante las primeras 24 horas de la ofensiva, el sistema fue capaz de procesar más de mil objetivos prioritarios, mostrando una capacidad de análisis y respuesta que no tiene precedentes en la historia militar.
Sin embargo, la IA integrada en la plataforma Maven de Palantir, no solo organiza los datos, tambiém sintetiza imágenes satelitales, interceptaciones de señales y feeds de vigilancia para generar recomendaciones tácticas completas.
Estas recomendaciones incluyen coordenadas GPS, sugerencias sobre el armamento adecuado y estimaciones de posibles daños colaterales.
En el ámbito operativo, la ofensiva ordenada por el presidente Donald Trump combinó el uso de misiles de crucero Tomahawk, aviones furtivos y drones de ataque unidireccionales.
Estos drones están diseñados para impactar un objetivo concreto y no regresar a la base, lo que demuestra el grado de especialización y autonomía que la IA aporta al campo de batalla.
El papel de la IA en estos sistemas varía según el tipo de arma, aunque destaca especialmente en los drones. La IA permite a los drones operar con cierto grado de autonomía y reconocer objetivos concretos mediante el análisis en tiempo real de su entorno.
Los drones son entrenados mediante IA para identificar objetivos específicos, como edificios o infraestructuras. Las cámaras integradas analizan el entorno para localizar patrones que se corresponden con los objetivos previamente definidos.
Para los mandos militares, la ventaja es indiscutible. La IA elimina la "niebla de la guerra" al procesar grandes volúmenes de información que serían imposibles de analizar para un equipo humano.
Sin embargo, esta eficiencia plantea una cuestión inquietante: ¿estamos delegando la moralidad de la guerra a la IA?
El dilema ético se hace más evidente cuanto mayor es la autonomía y el peso que adquiere la IA en las operaciones militares.
El argumento oficial es que el "humano siempre está en el bucle" (Human-in-the-loop). El algoritmo recomienda, pero un oficial de carne y hueso aprieta el botón.
No obstante, la psicología militar advierte sobre el "sesgo de automatización": la tendencia humana a confiar ciegamente en una máquina que presenta datos con una pátina de objetividad matemática.
Cuando una IA como Claude presenta una lista de mil objetivos "validados" con un margen de error mínimo, ¿qué oficial se atreverá a cuestionar la lógica del sistema? La responsabilidad se diluye.
Sin embargo, si el algoritmo comete un error y mueren civiles, ¿quién es el culpable? ¿El programador, el comandante o el modelo que "alucinó" una amenaza donde no la había?
El caso de Anthropic resulta especialmente paradójico en el contexto actual. Esta empresa, cuya fundación se basó en principios de seguridad y ética, ha terminado inmersa en un conflicto directo con la administración Trump.
La contradicción surgió porque, mientras que el Pentágono empleaba los modelos desarrollados por Anthropic para llevar a cabo ataques de alta precisión, el Ejecutivo decidió imponer un veto a la compañía debido a su negativa a eliminar las salvaguardas éticas integradas en el software.
Anthropic sostiene que su tecnología no debería utilizarse para la vigilancia masiva ni para armas autónomas letales. Esta postura ha generado tensiones con el Pentágono, que considera tales restricciones como "reglas de combate estúpidas" que ponen límites a la soberanía nacional y dificultan la acción militar.
Este enfrentamiento pone de manifiesto una delicada fractura entre el Estado y las grandes empresas tecnológicas.
El Estado precisa la potencia de cálculo y los algoritmos de estos gigantes para mantener su hegemonía militar.
Algunas compañías, como Anthropic, temen que sus avances tecnológicos puedan convertirse en instrumentos de una nueva era de autoritarismo, donde los algoritmos se conviertan en los ejecutores de decisiones que trascienden la voluntad humana.
La operación contra Irán es un complejo y crudo laboratorio de una realidad irreversible. La guerra se ha convertido en una gestión de datos a escala industrial.
Mientras los drones F-22 y los bombarderos B-2 ejecutan las órdenes, el verdadero cerebro de la operación reside en servidores a miles de kilómetros de distancia. Estamos entrando en un terreno donde la guerra se vuelve abstracta, limpia en la pantalla y devastadora en el suelo.
El uso de Claude en Irán no es solo un hito tecnológico, es una advertencia. Si no establecemos marcos legales internacionales que regulen el papel de la IA en el conflicto armado, corremos el riesgo de que la paz, y la guerra, dejen de ser una decisión humana para convertirse en una simple salida de código.