Anthropic insiste en excluir dos usos específicos: la vigilancia masiva de ciudadanos estadounidenses y las armas totalmente autónomas. Un alto funcionario del gobierno declaró a Axios que negociar casos de uso individuales con Anthropic no es viable. Según este funcionario, OpenAI, Google y xAI se han mostrado más cooperativos.
Pentágono y Anthropic chocan por el uso de la IA en armas autónomas
El Departamento de Defensa de EE. UU. quiere desplegar tecnología de IA sin restricciones, mientras que Anthropic exige salvaguardias contra el control de armas autónomas y la vigilancia interna. Un contrato valorado en hasta 200 millones de dólares está ahora en riesgo.
El Departamento de Defensa de EE. UU. y la empresa de IA Anthropic están inmersos en un conflicto por el uso militar de la inteligencia artificial, informa Reuters citando a varias personas familiarizadas con el asunto. En el centro de la disputa se encuentran las garantías: Anthropic busca compromisos de que sus herramientas de IA no se utilizarán para controlar armas autónomas sin una supervisión humana significativa ni para vigilar a ciudadanos estadounidenses.
El Pentágono —rebautizado como “Department of War” bajo la administración Trump— ha rechazado estas restricciones. Según un memorando del 9 de enero que detalla su estrategia de IA, el departamento insiste en poder utilizar tecnologías comerciales de IA independientemente de las políticas de uso de los desarrolladores, siempre que se respeten las leyes estadounidenses. Las negociaciones sobre un contrato valorado en hasta 200 millones de dólares se encuentran actualmente estancadas.
Anthropic camina por una línea delicada
El director ejecutivo de Anthropic, Dario Amodei, escribió esta semana en una entrada de blog que la IA debería apoyar la defensa nacional “de todas las maneras posibles, excepto aquellas que nos harían más parecidos a nuestros adversarios autocráticos”. También calificó como “horríficos” los disparos mortales contra ciudadanos estadounidenses durante protestas contra medidas migratorias en Minneapolis. Según Reuters, estos incidentes han intensificado las preocupaciones en sectores de Silicon Valley sobre el posible uso gubernamental de herramientas tecnológicas con fines violentos.
Anthropic mantiene contratos con Palantir, que a su vez trabaja directamente con el Servicio de Inmigración y Control de Aduanas de EE. UU. (ICE), la agencia implicada en los incidentes. Al mismo tiempo, el Pentágono podría seguir necesitando la cooperación de Anthropic, ya que los modelos de la empresa están entrenados para evitar acciones potencialmente dañinas y probablemente requerirían que personal de Anthropic los adaptara para su uso militar.
La disputa llega en un momento delicado para Anthropic, que se está preparando para una salida a bolsa y, según Reuters, ha invertido recursos significativos en negocios relacionados con la seguridad nacional.
ES
EN