OpenAI, junto con la empresa biotecnológica Ginkgo Bioworks, ha conectado GPT-5 a un laboratorio totalmente automatizado para optimizar la síntesis de proteínas sin células (CFPS). Los resultados son cuantificables, aunque las limitaciones siguen siendo considerables.
En campos como las matemáticas o la física, las ideas pueden verificarse de forma puramente computacional. La biología funciona de otra manera: el progreso pasa por el laboratorio, donde los experimentos requieren tiempo y dinero. Ahí es donde entra este nuevo proyecto de OpenAI y Ginkgo Bioworks. Ambas compañías conectaron el modelo de lenguaje GPT-5 de OpenAI con un laboratorio en la nube completamente automatizado. El objetivo fue optimizar la CFPS, un proceso que permite producir proteínas sin cultivar células vivas. En su lugar, la maquinaria de producción proteica del interior de las células se traslada a una mezcla controlada donde se mantiene activa.
Este método es relevante para el desarrollo de fármacos, el diagnóstico y la producción industrial de enzimas, y según el artículo que acompaña al proyecto, también se utiliza en la fabricación comercial de un conjugado anticuerpo-fármaco.
Optimizar la CFPS es especialmente difícil. Las mezclas contienen muchos componentes que interactúan entre sí, como plantillas de ADN, extractos celulares (lisados que contienen la maquinaria celular), fuentes de energía, sales y cofactores. El espacio de combinaciones posibles es enorme, y los efectos de pequeños cambios son difíciles de predecir solo con intuición. Intentos previos con aprendizaje automático solo habían logrado mejoras graduales.
Seis rondas, 36.000 reacciones y un 40 % menos de costes
A lo largo de seis iteraciones, el sistema probó más de 36.000 composiciones de reacción en 580 placas de microtitulación automatizadas, pequeñas placas de plástico con cientos de pocillos donde pueden ejecutarse reacciones en paralelo.
Los costes específicos de producción de la proteína de prueba sfGFP (una proteína fluorescente estándar usada como referencia) se redujeron de 698 a 422 dólares por gramo, lo que supone una disminución del 40 % frente al estado del arte publicado por investigadores de la Universidad Northwestern en agosto de 2025. Al mismo tiempo, el rendimiento proteico aumentó un 27 % (de 2,39 a 3,04 gramos por litro de solución de reacción).
Los costes de reactivos cayeron un 57 %, de 60 a 26 dólares por gramo. Como comparación, los autores citan el precio de lista de un kit comercial de CFPS de la empresa NEB, que ronda los 800.000 dólares por gramo, aunque aclaran que las cifras no son directamente comparables.
GPT-5 diseña, los robots pipetean
El proceso sigue un circuito cerrado. GPT-5 diseña los experimentos como archivos digitales. Un sistema de validación basado en la biblioteca de Python Pydantic comprueba automáticamente si los diseños son científicamente plausibles y físicamente ejecutables en la infraestructura de automatización. Solo entonces se envían al laboratorio en la nube de Ginkgo Bioworks en Boston.
Allí, unidades robóticas modulares —los llamados Reconfigurable Automation Carts (RACs)— ejecutan los experimentos de forma automática. Cada carro contiene un único dispositivo de laboratorio, como un manipulador de líquidos, un incubador o un sistema de medición. Brazos robóticos y rieles de transporte mueven las placas entre las estaciones, mientras que el software Catalyst de Ginkgo coordina todo el flujo de trabajo.
Tras finalizar los experimentos, los datos de medición regresan a GPT-5, que los analiza, formula hipótesis y diseña la siguiente ronda experimental. Según los autores, la intervención humana se limitó a la preparación y a la carga y descarga de reactivos y consumibles. En seis meses, el sistema generó alrededor de 150.000 puntos de datos.
En la primera ronda, GPT-5 diseñó composiciones de reacción sin datos previos ni resultados experimentales, basándose únicamente en el conocimiento contenido en sus pesos. Incluso en este modo zero-shot, produjo diseños utilizables, aunque todavía no óptimos.
El acceso a herramientas impulsó el progreso
Al inicio, el sistema sufrió una alta variabilidad en las mediciones: las desviaciones entre repeticiones en una misma placa superaban en algunos casos el 40 %. Para mejorar la precisión, empleados de Ginkgo ajustaron manualmente concentraciones y soluciones madre, reduciendo la desviación mediana al 17 %. El proceso, por tanto, no fue totalmente autónomo.
El mayor salto de rendimiento se produjo a partir de la tercera ronda, cuando GPT-5 obtuvo acceso a un ordenador, a Internet, a paquetes de análisis de datos y a un preprint reciente que describía el mejor resultado previo de la Universidad Northwestern. Además, el modelo recibió metadatos ampliados, incluidos datos brutos, mensajes de error de la manipulación de líquidos y tiempos reales de incubación. A partir de ese momento, GPT-5 pudo combinar sus propios resultados con hallazgos de la literatura científica y, en solo dos meses, superó el estado del arte. Sin embargo, durante ese periodo también se mejoraron la plantilla de ADN y el lisado celular, lo que dificulta atribuir con precisión los avances.
GPT-5 anticipó hallazgos de la comunidad científica
GPT-5 propuso reactivos como nucleósidos monofosfato (NMPs), fosfato potásico y ribosa incluso antes de tener acceso al preprint mencionado. Los autores de ese trabajo identificaron de forma independiente las mismas sustancias como clave, lo que indica que el modelo llegó a conclusiones similares a partir de sus datos de entrenamiento y de los experimentos en curso.
Además, GPT-5 redactó entradas de cuaderno de laboratorio legibles para humanos, documentando análisis y hipótesis. Observó, entre otras cosas, que un tampón económico como HEPES tiene un impacto desproporcionado en el rendimiento proteico, que el fosfato debe mantenerse en un rango estrecho de concentración y pH, y que la adición de espermidina (una sustancia natural que estabiliza ácidos nucleicos) aumenta los rendimientos.
Desde el punto de vista económico, el modelo concluyó que más del 90 % del coste de una reacción CFPS proviene del lisado celular y del ADN. Por tanto, aumentar el rendimiento por unidad de estos componentes caros es la palanca más eficaz para reducir costes, más que ahorrar en ingredientes secundarios baratos.
Pocos errores, pero muchas preguntas abiertas
La tasa de errores fue baja: de 480 placas diseñadas, solo dos presentaron fallos fundamentales (menos del 1 %). En un caso, el modelo sobrescribió un volumen prescrito para añadir más reactivos; en otro, un error de conversión de unidades produjo una placa con solo glucosa y ribosa, sin producción de proteína.
Las limitaciones, no obstante, son significativas. Todos los resultados se basan en una sola proteína (sfGFP) y en un único sistema CFPS. No está claro si las composiciones optimizadas pueden transferirse a otras proteínas. En pruebas con doce proteínas adicionales, solo seis fueron detectables mediante electroforesis en gel, lo que indica que sería necesaria más optimización. La supervisión humana siguió siendo necesaria para mejorar protocolos y manejar reactivos.
OpenAI y Ginkgo Bioworks afirman que quieren ampliar este enfoque a otros procesos biológicos. Sin embargo, que modelos de IA puedan mejorar de forma autónoma protocolos en laboratorios húmedos plantea también cuestiones de bioseguridad. OpenAI remite a su Preparedness Framework para evaluar estos riesgos, aunque el artículo no detalla medidas concretas más allá de esta declaración de intenciones.
ES
EN