Según un informe de The Information, Google DeepMind ha formado un equipo especializado de investigadores e ingenieros para reforzar las capacidades de programación de sus modelos Gemini. La iniciativa está dirigida por el ingeniero de DeepMind Sebastian Borgeaud, que anteriormente supervisó el preentrenamiento de los modelos de la compañía. El equipo se centra en tareas de programación complejas y de largo alcance, como la creación de nuevo software, en las que los modelos deben leer archivos, interpretar la intención del usuario y trabajar sobre bases de código más amplias.

Uno de los motivos de esta ofensiva es que, según el reporte, algunos investigadores de Google consideran que las herramientas de programación de Anthropic son más potentes que las soluciones actuales de Google. La programación se ha convertido este año en uno de los principales frentes de competencia entre los grandes laboratorios de IA, con Google y OpenAI tratando de recortar distancia frente a Anthropic. Al mismo tiempo, OpenAI también ha estado reasignando recursos desde proyectos secundarios como Sora, cuya continuidad está siendo recortada, para concentrarse más en programación y productos empresariales.

Brin sigue involucrado directamente

El cofundador de Google, Sergey Brin, y el CTO de DeepMind, Koray Kavukcuoglu, estarían participando de forma directa en esta iniciativa. Según el informe, Brin escribió en una nota interna que Google debe “cerrar urgentemente la brecha” en la ejecución de agentes de IA. También habría defendido que todos los ingenieros de Gemini utilicen agentes internos para tareas complejas y de varios pasos.

Brin también explicó a los empleados que unas capacidades de programación más avanzadas podrían ser un paso importante hacia una IA capaz de mejorarse a sí misma. La idea es que un agente de programación avanzado, combinado con sistemas de IA para matemáticas y experimentación, podría llegar algún día a automatizar gran parte del trabajo que hoy realizan investigadores e ingenieros de IA.

Dentro de la compañía, Google estaría siguiendo el uso de su herramienta de programación “Jetski” mediante clasificaciones internas de equipos, en una dinámica que recuerda a reportes sobre métricas similares de uso interno de IA en Meta. Además, algunos equipos fuera de DeepMind también estarían obligando a sus ingenieros a asistir a sesiones de formación en IA.

Según The Information, Google está dando cada vez más importancia a modelos entrenados con código interno, en lugar de depender únicamente de modelos de programación diseñados para clientes externos. Como la base de código interna de Google es muy distinta del código público que normalmente se utiliza para entrenar agentes de programación generales, esos sistemas entrenados internamente no serían aptos para publicarse de forma abierta. Aun así, podrían servir para desarrollar mejores modelos públicos en el futuro.