Jerry Tworek, ex vicepresidente de Investigación en OpenAI, ve un fallo fundamental en los modelos de IA actuales: no pueden aprender de sus errores. “Cuando un modelo falla, básicamente te quedas sin salida”, afirmó Tworek en el pódcast Unsupervised Learning podcast. En la actualidad, no existe una forma eficaz de que un modelo actualice su conocimiento después de cometer un error.
Tworek, que trabajó en los modelos de razonamiento de OpenAI como o1 y o3, dejó recientemente la compañía para centrarse en resolver este problema. Desde entonces, ha revisado al alza su cronograma sobre la llegada de la AGI. “Mientras los modelos se queden atascados ante los problemas, no lo llamaría AGI”, explicó. En su opinión, el entrenamiento de la IA sigue siendo un “proceso frágil”, mientras que el aprendizaje humano es robusto y autocorrectivo. “La inteligencia siempre encuentra un camino”, señaló Tworek.
Investigaciones recientes de Apple han demostrado que incluso los modelos centrados en el razonamiento pueden sufrir un “colapso del razonamiento” en tareas complejas como las Torres de Hanói.
Conclusión:
Las declaraciones de Jerry Tworek ponen de relieve una debilidad fundamental de los modelos de IA actuales: a pesar de sus impresionantes capacidades de razonamiento, siguen siendo sistemas frágiles que no pueden aprender de forma fiable de sus propios fallos. Mientras los modelos colapsen ante problemas difíciles y carezcan de un mecanismo para actualizar su conocimiento tras cometer errores, resulta prematuro describirlos como una verdadera AGI.
ES
EN