La Casa Blanca ha publicado un marco nacional para la inteligencia artificial junto con recomendaciones legislativas para el Congreso de Estados Unidos. El documento describe siete áreas clave de enfoque.
Anthropic ha suavizado una política clave de seguridad, alegando la necesidad de mantener su competitividad. Al mismo tiempo, la empresa está bajo presión del Pentágono, que exige permiso para utilizar la IA en la vigilancia de ciudadanos estadounidenses y en la creación de armas autónomas.
La startup china de IA Deepseek habría entrenado su modelo más reciente utilizando los chips Blackwell de Nvidia, los más potentes de la compañía, a pesar de las restricciones de exportación de Estados Unidos. Así lo informa Reuters, citando a un alto funcionario de la administración Trump, quien señaló que el modelo podría publicarse tan pronto como la próxima semana. Los rumores sobre contrabando de chips ya habían surgido a finales del año pasado.
La investigadora de seguridad de Meta AI, Summer Yue, encargó al agente de IA OpenClaw que limpiara su bandeja de entrada saturada, decidiendo qué correos eliminar y cuáles archivar. En lugar de eso, el agente comenzó a borrar correos de forma indiscriminada y a gran velocidad, e ignoró los comandos de detención enviados desde su teléfono.
Anthropic afirma haber detectado ataques de destilación a gran escala contra Claude por parte de laboratorios chinos de IA como DeepSeek, Moonshot y MiniMax. En la destilación, un modelo más débil se entrena con las salidas de uno más potente. Según Anthropic, más de 24.000 cuentas falsas generaron más de 16 millones de solicitudes, enfocadas en las fortalezas de Claude, como razonamiento, programación y uso de herramientas. La empresa también sostiene que estos laboratorios utilizaron servicios proxy para eludir restricciones de acceso relacionadas con China.
NewsGuard evaluó si los bots de audio — ChatGPT Voice (OpenAI), Gemini Live (Google) y Alexa+ (Amazon) — reproducen afirmaciones falsas en respuestas de audio realistas. Este tipo de contenido puede compartirse fácilmente en redes sociales y ser utilizado para difundir desinformación