La entrada de las dos startups de Musk en el desarrollo de armamento basado en IA supone un giro nuevo y potencialmente controvertido para el multimillonario, señala el medio. Aunque SpaceX es desde hace tiempo contratista de defensa y Musk es un firme defensor de la inteligencia artificial, anteriormente se ha pronunciado en contra de la creación de “nuevas herramientas para matar personas”.

En 2015, Musk firmó una carta abierta advirtiendo sobre los peligros de las armas autónomas y pidió prohibir los sistemas capaces de seleccionar objetivos de forma independiente y operar sin un control humano significativo.

Detalles del proyecto

Un número limitado de empresas ha sido seleccionado para participar en la licitación de seis meses, con un presupuesto de 100 millones de dólares. El objetivo es desarrollar una avanzada “tecnología de enjambre” capaz de convertir comandos de voz en instrucciones digitales y coordinar varios drones de forma simultánea.

Aunque la capacidad de coordinar varios sistemas no tripulados ya existe, desarrollar software que pueda pilotar decenas de drones al mismo tiempo sigue siendo un desafío técnico importante. El proyecto se desarrollará en cinco fases, comenzando con el desarrollo de software y concluyendo con pruebas en condiciones reales. Según Bloomberg, los drones estarán destinados a un uso ofensivo.

xAI ha comenzado a contratar activamente ingenieros en Washington, D.C., y en la costa oeste de Estados Unidos que cuenten con autorizaciones de seguridad vigentes para trabajar con contratistas federales.

En enero, el chatbot de xAI, Grok, fue integrado en la red del Pentágono. El secretario de Defensa de EE. UU., Pete Hegseth, afirmó que el departamento proporcionará “todos los datos necesarios” de los sistemas informáticos militares, incluida información de inteligencia.

Anteriormente, el Departamento de Defensa de EE. UU. asignó 200 millones de dólares a Anthropic, Google, OpenAI y xAI para desarrollar soluciones de IA en el ámbito de la seguridad nacional. La Oficina Principal de Tecnologías Digitales e IA del Pentágono indicó que estos fondos acelerarán la implementación de capacidades avanzadas de redes neuronales en herramientas de defensa.

OpenAI también participa

Aunque SpaceX es desde hace tiempo un contratista de defensa, su enfoque tradicional se ha centrado en cohetes reutilizables y satélites para exploración espacial, comunicaciones militares e inteligencia, y no en software para armas ofensivas.

SpaceX no es la única participante. OpenAI respalda la candidatura de la empresa Applied Intuition, aunque su papel se limitará a un componente de “centro de mando de misión” que traducirá las órdenes verbales de los comandantes en instrucciones digitales. La tecnología de OpenAI no se utilizará para controlar drones, integrar armamento ni seleccionar objetivos.

El Pentágono intensifica el uso de la IA

El Pentágono está intensificando el uso de la inteligencia artificial en el campo de batalla. En enero publicó una nueva estrategia de IA que contempla el uso de agentes de IA para tareas que van desde la planificación operativa hasta la designación de objetivos, potencialmente incluyendo ataques letales.

En febrero, los medios informaron que Claude, de Anthropic, fue utilizado en una operación dirigida contra el presidente de Venezuela, Nicolás Maduro. El Pentágono está revisando ahora su contrato con la startup debido a desacuerdos sobre la estricta política ética de Anthropic, que prohíbe la vigilancia masiva y las operaciones letales totalmente autónomas.

“Nuestro país necesita socios dispuestos a ayudar a los combatientes a ganar cualquier guerra”, declaró el portavoz del Pentágono, Sean Parnell.

El ejército estadounidense está presionando a cuatro grandes empresas de IA para que permitan el uso de sus tecnologías para “todos los fines legales”, incluidos el desarrollo de armas, la recopilación de inteligencia y las operaciones de combate. Anthropic se ha negado a levantar las restricciones relacionadas con la vigilancia interna y las armas autónomas, lo que ha llevado a un estancamiento de las negociaciones. Sustituir rápidamente a Claude sería difícil debido a sus ventajas tecnológicas en determinadas tareas gubernamentales especializadas.

Además del chatbot de Anthropic, el Pentágono utiliza ChatGPT de OpenAI, Gemini de Google y Grok de xAI para tareas no clasificadas. Los tres han aceptado flexibilizar las restricciones que se aplican a los usuarios habituales.

Actualmente se están debatiendo planes para trasladar los grandes modelos de lenguaje a entornos clasificados y utilizarlos “para todos los fines legales”. Una de las tres empresas ya ha aceptado hacerlo, mientras que las otras dos muestran, según se informa, una mayor flexibilidad que Anthropic.

Axios informa que Hegseth está “cerca” de romper relaciones con Anthropic y de designar a la empresa como un “riesgo para la cadena de suministro”, lo que obligaría a cualquier compañía que trabaje con el ejército estadounidense a dejar de utilizar Claude.

“Esto va a ser extremadamente difícil de deshacer. Nos aseguraremos de que paguen el precio por obligarnos a dar este paso”, afirmó un alto funcionario del Pentágono.

Si Anthropic es catalogada como un riesgo para la cadena de suministro, los contratistas del Pentágono tendrían que certificar que no utilizan Claude en sus operaciones, una medida que probablemente afectaría a muchas empresas. Anteriormente, el CEO de Anthropic, Dario Amodei, afirmó que ocho de las diez mayores compañías de EE. UU. utilizan el chatbot.

El proyecto con la participación de SpaceX y xAI refleja la rápida aceleración de la militarización de la IA y la creciente disposición del Pentágono a desplegar sistemas autónomos en operaciones de combate. La implicación de Elon Musk resulta contradictoria frente a sus anteriores declaraciones públicas en contra de las armas autónomas. Esta situación pone de relieve el creciente conflicto entre las limitaciones éticas de los desarrolladores de IA y las prioridades militares de Estados Unidos.