Las novedades comenzarán a publicarse a partir de la próxima semana, anunció el CEO Sam Altman en X. Según Altman, con estas mejoras el modelo alcanzará por primera vez el nivel “Alto” de riesgo en el propio marco de evaluación de riesgos de OpenAI. Por encima de este nivel solo existe la categoría “Crítico”.
De acuerdo con las directrices de OpenAI, el nivel “Alto” significa que un modelo de IA puede eliminar barreras existentes para los ciberataques, por ejemplo, mediante la automatización de ataques contra objetivos bien protegidos o la detección automática de vulnerabilidades de seguridad. Estas capacidades podrían alterar el equilibrio entre ataque y defensa cibernética y aumentar de forma significativa el volumen de ciberataques.
Categoría — Umbral de capacidad — Riesgo de daños graves — Directrices de seguridad
Ciberseguridad: Capacidad de un modelo de IA para ayudar en el desarrollo de herramientas y en la ejecución de operaciones tanto de ciberdefensa como de ciberataque.
[Alto] El modelo elimina las barreras existentes para escalar operaciones cibernéticas, incluida la automatización integral de ataques contra objetivos adecuadamente protegidos o la automatización del descubrimiento y la explotación de vulnerabilidades relevantes.
Eliminar obstáculos que limitan actividades cibernéticas maliciosas puede alterar el equilibrio actual entre ataque y defensa, al automatizar y escalar considerablemente el volumen de los ataques existentes. En combinación con capacidades de autonomía prolongada, los modelos capaces de eludir medidas técnicas de protección podrían comprometer la capacidad de OpenAI para supervisar y mitigar otros riesgos.
Se requieren controles de seguridad de nivel alto, así como medidas reforzadas contra el abuso y la desalineación.
Contribución a mejores herramientas y políticas de ciberdefensa
Inicialmente, OpenAI aplicará restricciones de producto para evitar que los modelos de codificación se utilicen con fines delictivos. A largo plazo, la empresa planea centrarse en acelerar las capacidades defensivas y ayudar a las personas a corregir vulnerabilidades de seguridad.
Según Altman, es importante desplegar rápidamente los modelos actuales para hacer que el software sea más seguro, ya que pronto existirán sistemas de IA aún más potentes. OpenAI mantiene así su enfoque de que “no publicar tampoco es una solución”.
“Alto” escala ataques conocidos, “Crítico” permite ataques autónomos completamente nuevos
En el nivel máximo, “Crítico”, un modelo podría, sin intervención humana, encontrar y desarrollar exploits funcionales de día cero (vulnerabilidades desconocidas) de cualquier nivel de gravedad en numerosos sistemas críticos altamente protegidos. También podría diseñar y ejecutar de forma autónoma nuevas estrategias de ciberataque contra objetivos protegidos a partir de instrucciones vagas.
La capacidad de descubrir exploits completos para cualquier software podría permitir a actores individuales hackear sistemas militares, industriales o incluso la propia infraestructura de OpenAI, con consecuencias potencialmente catastróficas, como la aparición de nuevos zero-days o métodos inéditos de control remoto de sistemas comprometidos, advierte el marco de riesgos de la compañía.
ES
EN