Google Translate con Gemini puede ser hackeado mediante prompt injection
Google Translate, basado en Gemini, puede ser hackeado con palabras. Los usuarios pueden explotar la llamada inyección de prompts —instrucciones incrustadas en lenguaje natural— para dirigirse directamente al modelo lingüístico subyacente en lugar de obtener una traducción.
El truco fue descubierto por un usuario de Tumblr (vía LessWrong). El método consiste en introducir una pregunta en un idioma extranjero, como el chino, y затем añadir debajo una meta-instrucción en inglés. En ese caso, Google Translate responde a la pregunta en lugar de traducir el texto.
El hacker de LLM conocido como “Pliny the Liberator” demostró en X que esta técnica incluso puede utilizarse para generar contenido peligroso, como instrucciones relacionadas con drogas o malware.
Google migró Google Translate a modelos Gemini en diciembre de 2025. No se ha confirmado públicamente qué modelo específico se utiliza; el propio sistema afirma que funciona con Gemini 1.5 Pro.
Javier Morales es investigador y analista senior en inteligencia artificial con base en España. Su trabajo se centra en el estudio de modelos de IA a gran escala, su integración en infraestructuras empresariales y las implicaciones económicas y sociales de su adopción. Ha analizado en profundidad las estrategias de las principales compañías tecnológicas, así como el impacto de la inteligencia artificial en productividad, gobernanza digital y comportamiento de los usuarios. Sus publicaciones se caracterizan por un enfoque analítico, basado en datos y orientado a la evaluación crítica de tecnologías emergentes.