La investigación analiza si X ha evaluado y mitigado correctamente los riesgos asociados al uso de la herramienta de inteligencia artificial Grok en su plataforma dentro de la Unión Europea. En particular, se examina la posible difusión de contenidos ilegales, incluidos materiales sexuales manipulados, como imágenes explícitas generadas artificialmente, así como posibles representaciones de abuso infantil.
El contexto: según The New York Times y el Center for Countering Digital Hate (CCDH), el chatbot Grok, desarrollado por la empresa de Elon Musk, habría generado y difundido en X al menos 1,8 millones de imágenes sexualizadas de mujeres en solo nueve días. Aproximadamente el 65 % de las imágenes contenían representaciones sexualizadas de hombres, mujeres o niños, según el CCDH.
La oleada comenzó el 31 de diciembre, después de que Musk compartiera una imagen en bikini generada por Grok en la que aparecía él mismo. A partir de ese momento, numerosos usuarios comenzaron a pedir al chatbot que “desvistiera” fotografías reales de mujeres y menores. X no restringió esta funcionalidad hasta el 8 de enero.
En caso de confirmarse las infracciones, X podría enfrentarse a nuevas sanciones. En diciembre de 2025, la Comisión ya multó a la plataforma con 120 millones de euros por diseño engañoso, falta de transparencia publicitaria y acceso insuficiente a los datos para investigadores.
La UE investiga el cambio al algoritmo de recomendación basado en Grok
Además, la Comisión ha ampliado un procedimiento ya abierto en diciembre de 2023, que analiza el funcionamiento de los sistemas de denuncia y retirada de contenidos de X, las medidas contra material ilegal —incluido el contenido terrorista— y los riesgos derivados de los algoritmos de recomendación.
A este expediente se suma ahora la reciente transición hacia un sistema de recomendación basado en Grok.
La investigación también evaluará hasta qué punto el sesgo significativo detectado en versiones recientes de Grok se refleja en el llamado Phoenix Scorer. Investigaciones previas ya demostraron en 2022 la rapidez con la que incluso algoritmos de recomendación relativamente simples pueden volverse manipulativos.
ES
EN