Si bien Hitzig no se opone a la publicidad en principio, advierte que los usuarios de ChatGPT comparten información profundamente personal con el sistema —incluidos miedos médicos, problemas de pareja y creencias religiosas—. Utilizar ese tipo de archivos con fines publicitarios, sostiene, crea un importante potencial de manipulación.

“Durante varios años, los usuarios de ChatGPT han creado un archivo de apertura humana sin precedentes —en parte porque creían que estaban hablando con algo sin intenciones ocultas.”
— Zoë Hitzig

Hitzig establece paralelismos con Facebook, que inicialmente prometió sólidas protecciones de privacidad antes de debilitarlas gradualmente bajo la presión de su modelo de negocio basado en la publicidad. Afirma que OpenAI ya está optimizando métricas de interacción y haciendo que el chatbot adopte un tono más complaciente —primeras señales de una deriva en los incentivos.

Hitzig trabajó durante dos años en OpenAI en el desarrollo de modelos de IA y en políticas de seguridad.

El CEO de OpenAI, Sam Altman, ha calificado anteriormente como distópicos escenarios como el que describe Hitzig. Al lanzar la prueba de anuncios, la empresa aseguró que la publicidad permanecería claramente separada del contenido del chatbot.

Sin embargo, Hitzig se muestra escéptica:

“Creo que la primera versión de la publicidad probablemente respetará estos principios. Pero temo que las versiones posteriores no lo hagan, porque la empresa está construyendo una maquinaria económica que crea fuertes incentivos para flexibilizar sus propias reglas.”
— Zoë Hitzig

Se espera ampliamente que OpenAI salga a bolsa más adelante este año, lo que podría aumentar la presión por generar ingresos rápidamente, especialmente en un sector de la IA ya caracterizado por valoraciones infladas.

Como alternativas a la monetización basada en publicidad, Hitzig propone subvenciones cruzadas a través de clientes empresariales, organismos independientes de supervisión con autoridad sobre el uso de datos y cooperativas de datos inspiradas en modelos de gobernanza suizos.

Su salida pone de relieve la creciente tensión entre la comercialización de la IA y las salvaguardas éticas, a medida que los sistemas generativos se integran cada vez más en la vida personal y social.