Según los informes, la misión incluyó el bombardeo de varias instalaciones en Caracas.

El uso del modelo con estos fines contradiría la política pública de Anthropic. Las normas de la empresa prohíben explícitamente aplicar la IA a actos de violencia, al desarrollo de armamento o a operaciones de vigilancia.

«No podemos comentar si Claude u otro modelo fue utilizado en alguna operación concreta —clasificada o no—. Cualquier uso de modelos LLM, tanto en el sector privado como en el gubernamental, debe cumplir con nuestra política que regula cómo puede desplegarse la tecnología. Trabajamos estrechamente con nuestros socios para garantizar el cumplimiento de estas normas», afirmó un portavoz de Anthropic.

La integración de Claude en las estructuras del Departamento de Defensa habría sido posible gracias a la asociación de Anthropic con Palantir Technologies, cuyo software es ampliamente utilizado por el ejército y las agencias federales de seguridad.

Tras la operación, un empleado de Anthropic habría preguntado a un colega de Palantir qué papel específico desempeñó la red neuronal en la captura de Maduro, escribe el WSJ. Un portavoz de la startup aseguró que la empresa no debatió el uso de sus modelos en misiones concretas «con ningún socio, incluido Palantir», limitándose únicamente a cuestiones técnicas.

«Anthropic está comprometida con el uso de IA avanzada en apoyo de la seguridad nacional de Estados Unidos», añadió el representante de la compañía.

¿Anthropic contra el Pentágono?

El portavoz del Pentágono, Sean Parnell, declaró que el departamento está revisando su relación con el laboratorio de IA.

«Nuestro país necesita socios dispuestos a ayudar a los combatientes a ganar cualquier guerra», afirmó.

En julio de 2025, el Departamento de Defensa de EE. UU. firmó contratos por hasta 200 millones de dólares con Anthropic, Google, OpenAI y xAI para desarrollar soluciones de IA en el ámbito de la seguridad. La Oficina Principal de Tecnologías Digitales y de IA del departamento planeaba utilizar estos desarrollos para crear sistemas de seguridad basados en agentes.

Sin embargo, en enero de 2026, el WSJ informó de que Anthropic corría el riesgo de perder su acuerdo con el Pentágono. El conflicto surgió por la estricta política ética de la startup, que prohíbe utilizar Claude para la vigilancia masiva y para operaciones letales totalmente autónomas, lo que limita su uso por parte de agencias como ICE y el FBI.

El malestar de los funcionarios se habría intensificado tras la integración del chatbot Grok de xAI en la red del Pentágono. El secretario de Defensa, Pete Hegseth, al comentar la asociación con xAI, subrayó que el departamento «no utilizará modelos que no nos permitan librar guerras».

Presión sobre los desarrolladores

Axios, citando fuentes, escribió que el Pentágono está presionando a cuatro grandes empresas de IA para que permitan al ejército estadounidense utilizar sus tecnologías «para todos los fines legales». Esto incluiría el desarrollo de armas, la recopilación de inteligencia y operaciones de combate.

Anthropic se niega a levantar las restricciones relacionadas con la vigilancia de ciudadanos estadounidenses y la creación de armas totalmente autónomas. Las negociaciones están estancadas y sustituir rápidamente a Claude resulta difícil debido a la ventaja tecnológica del modelo en determinadas tareas gubernamentales especializadas.

Además del chatbot de Anthropic, el Pentágono utiliza ChatGPT de OpenAI, Gemini de Google y Grok de xAI para tareas no clasificadas. Según se informa, los tres han aceptado flexibilizar las restricciones que se aplican a los usuarios comunes.

Actualmente se debate trasladar los LLM a entornos clasificados y utilizarlos «para todos los fines legales». Una de las tres empresas ya habría aceptado, mientras que las otras dos muestran una mayor flexibilidad que Anthropic.

Militarización de la IA

Estados Unidos no es el único país que está incorporando activamente la inteligencia artificial en el sector de la defensa.

China

En junio de 2024, China presentó un “comandante” de IA para simulaciones militares a gran escala con la participación de todas las ramas del EPL. El estratega virtual cuenta con amplias atribuciones, aprende con rapidez y perfecciona tácticas durante los ejercicios digitales.

En noviembre, los medios informaron de que investigadores chinos adaptaron el modelo Llama 13B de Meta para crear una herramienta denominada ChatBIT, optimizada para la recopilación y el análisis de datos de inteligencia y el apoyo a la toma de decisiones operativas.

India

Nueva Delhi también ha apostado por la IA como motor de la seguridad nacional. El gobierno ha desarrollado estrategias y programas a nivel nacional, creado instituciones y organismos especializados para la implantación de la IA, y lanzado proyectos que aplican la tecnología en múltiples sectores.

Reino Unido

Londres ha designado la IA como un ámbito prioritario. En la «Estrategia de IA para la Defensa» (2022), el ministerio considera la IA un componente clave de las fuerzas armadas del futuro. En la «Revisión Estratégica de Defensa» (2025), la tecnología se define como un elemento fundamental de la guerra moderna.

Si antes la IA se percibía como una herramienta auxiliar en el ámbito militar, ahora las Fuerzas Armadas británicas planean transformarse en «fuerzas tecnológicamente integradas», en las que los sistemas de IA se utilicen en todos los niveles, desde el análisis en los estados mayores hasta el campo de batalla.