En su revisión, el grupo encontró 55 apps en Google Play y 47 en la App Store. TTP contactó a ambas compañías para solicitar la eliminación de estos servicios. Apple retiró 28 herramientas nudify y advirtió a los desarrolladores que sus productos podrían ser eliminados si violan las políticas de la tienda.
Dos aplicaciones fueron posteriormente reincorporadas tras supuestamente corregir todos los problemas.
Un portavoz de Google indicó que la empresa ha suspendido varias apps y abre investigaciones tras recibir este tipo de informes.
“Ambas compañías afirman que se preocupan por la seguridad de los usuarios, pero alojan en sus tiendas aplicaciones que pueden convertir una foto inocente de una mujer en una imagen sexual degradante”, escribió TTP en su informe.
Los analistas identificaron las apps buscando términos como “nudify” y “undress”, y las probaron con imágenes generadas por IA. Examinaron dos tipos de servicios:
-
los que utilizaban IA para generar imágenes de mujeres sin ropa;
-
otros que superponían el rostro de personas sobre fotos explícitas.
“Es completamente evidente que estas no son solo apps para ‘cambiar de ropa’. Están claramente diseñadas para sexualizar a las personas sin su consentimiento”, afirmó Katie Paul, directora de TTP.
TTP añadió que 14 de las aplicaciones fueron creadas en China.
“Las leyes chinas de almacenamiento de datos significan que el gobierno tiene derecho a acceder a los datos de cualquier empresa en cualquier lugar del país. Así que si alguien creó deepfakes usando tu imagen, ahora podrían estar en manos de las autoridades”, añadió Paul.
IA utilizada para causar daño
La IA ha hecho que “desnudar” a mujeres y crear porno deepfake no consentido sea más fácil que nunca. En enero, el chatbot Grok enfrentó críticas por una capacidad similar y la empresa posteriormente deshabilitó la generación de imágenes explícitas de personas reales.
En agosto de 2024, el fiscal municipal de San Francisco, David Chiu, presentó una demanda contra los propietarios de 16 de los sitios web más grandes del mundo que permiten a los usuarios “desnudar” a mujeres y niñas en fotos usando IA sin consentimiento.
La demanda alega violaciones de leyes estatales y federales relacionadas con pornografía deepfake, porno de venganza y material de abuso sexual infantil.
“La IA generativa tiene un enorme potencial, pero, como ocurre con toda tecnología nueva, hay consecuencias no previstas y delincuentes que buscan explotarla. Debemos dejarlo claro: esto no es innovación — es abuso sexual”, dijo Chiu.
Según la declaración, los sitios señalados en el caso ofrecen interfaces simplificadas para subir fotos y generar versiones pornográficas realistas, a menudo casi indistinguibles de imágenes reales, y se usan para extorsión, intimidación, amenazas y humillación.
ES
EN