Anthropic afirmó que vinculó cada campaña con firmas concretas con “alto grado de confianza” mediante correlación de IP, metadatos de solicitudes, señales de infraestructura y confirmaciones de socios del sector. La compañía sostiene que los ataques se centraron en las capacidades más distintivas de Claude, como razonamiento agéntico, uso de herramientas y programación, mediante destilación de modelos: una técnica ampliamente usada y legítima cuando se aplica a modelos propios, pero que también puede usarse de forma ilícita para acelerar el desarrollo.
La empresa advierte que los riesgos van más allá de la competencia comercial. Anthropic sostiene que los modelos destilados ilegalmente pueden no conservar salvaguardas críticas diseñadas para limitar usos peligrosos, como desarrollo de armas biológicas, ciberataques y otras aplicaciones de alto riesgo. También alerta de que estas capacidades podrían integrarse en sistemas militares o de inteligencia de gobiernos autoritarios para ciberoperaciones, desinformación y vigilancia masiva.
Anthropic pidió una respuesta coordinada de la industria, reguladores y la comunidad global de IA. La compañía respaldó los controles de exportación y advirtió que los ataques de destilación pueden reducir su eficacia al ayudar a laboratorios extranjeros a cerrar la brecha tecnológica. Entre sus contramedidas, Anthropic citó mejoras en la detección de patrones de destilación, intercambio de indicadores técnicos con otros laboratorios y proveedores cloud, mayor verificación de cuentas educativas y de investigación, y defensas para reducir la eficacia de la destilación no autorizada.
La revelación se produce mientras Anthropic mantiene tensiones con el Departamento de Defensa de EE. UU. sobre el uso militar de sus modelos. El CEO Dario Amodei se reunirá con el secretario de Defensa Pete Hegseth en el Pentágono, en medio de desacuerdos sobre el uso de IA para vigilancia masiva de ciudadanos estadounidenses y armas autónomas. Funcionarios del Pentágono habrían dejado claro que planean usar LLM para todos los escenarios legales, y el conflicto incluso habría puesto sobre la mesa una posible rescisión contractual.
Por separado, el lanzamiento de Claude Code Security —un escáner de vulnerabilidades con IA que analiza bases de código, valida hallazgos para reducir falsos positivos y propone correcciones— también presionó a empresas cotizadas de ciberseguridad. Según VentureBeat, Claude Opus 4.6 detectó más de 500 vulnerabilidades críticas que habían permanecido durante años pese a revisiones de expertos. Las acciones de varias firmas de ciberseguridad de EE. UU. han caído con fuerza en los últimos días, en parte por temores al llamado “AI Ghost Trade”, aunque algunos analistas consideran que la reacción del mercado es exagerada.
ES
EN