OpenAI está implementando una versión especializada de ChatGPT para detectar filtraciones internas de información, según The Information, que cita a una fuente familiarizada con el asunto. Cuando se publica un artículo sobre desarrollos internos en OpenAI, el equipo de seguridad introduce el texto en este sistema dedicado de ChatGPT, que tiene acceso a documentos internos, así como a comunicaciones de Slack y correos electrónicos de los empleados.
El sistema puede sugerir posibles fuentes de la filtración identificando archivos o canales de comunicación que contengan la información divulgada y determinando quién tenía acceso a ellos. No está claro si OpenAI ha logrado identificar a alguna persona utilizando este método.
Ingenieros de OpenAI presentaron recientemente la arquitectura de un agente interno de IA que podría emplearse con este fin. El agente está diseñado para permitir a los empleados realizar análisis complejos de datos mediante consultas en lenguaje natural y tiene acceso al conocimiento institucional almacenado en mensajes de Slack, Google Docs y otros sistemas internos
Senior AI Research Analyst
Javier Morales es investigador y analista senior en inteligencia artificial con base en España. Su trabajo se centra en el estudio de modelos de IA a gran escala, su integración en infraestructuras empresariales y las implicaciones económicas y sociales de su adopción. Ha analizado en profundidad las estrategias de las principales compañías tecnológicas, así como el impacto de la inteligencia artificial en productividad, gobernanza digital y comportamiento de los usuarios. Sus publicaciones se caracterizan por un enfoque analítico, basado en datos y orientado a la evaluación crítica de tecnologías emergentes.