El caso de la periodista de Bloomberg Jennah Haque ilustra bien el problema. Hace unos meses recibió en su casa un paquete de bienvenida de la Ultimate Medical Academy, en Tampa, que incluso incluía un polo masculino talla XL. El detalle inquietante: ella nunca había solicitado ingresar allí.

Después descubrió que alguien había presentado 13 solicitudes universitarias en su nombre y varias peticiones de ayuda financiera estudiantil. El objetivo era acceder a más de 50.000 dólares en préstamos educativos. Los datos principales coincidían: nombre, fecha de nacimiento, dirección y número de la Seguridad Social. Solo había un dato falso evidente: la escuela secundaria indicada en Alabama, a la que Haque nunca había asistido.

El fraude de identidad ya no es artesanal

La investigación muestra que el caso de Haque no es una excepción aislada. El robo de identidad impulsado por IA ha alcanzado una escala mucho mayor de lo que se temía.

Las cifras del Identity Theft Resource Center apuntan en esa dirección. En 2025 se registró el mayor número de compromisos de datos desde que la organización comenzó a medirlos en 2005. A esto se suma un cambio importante: los delincuentes ya no solo compran datos filtrados, sino que utilizan herramientas de IA, deepfakes y sistemas automatizados para convertir esa información en solicitudes, cuentas y documentos falsos.

Michael Bruemmer, vicepresidente de protección al consumidor en Experian, una de las tres grandes agencias de crédito de Estados Unidos, afirma que el 40% de las 5.000 filtraciones de datos gestionadas por su equipo el año anterior tuvieron apoyo de IA.

Para 2026, Experian espera que la llamada IA agéntica —sistemas autónomos capaces de realizar tareas con poca supervisión humana— se convierta en una de las principales causas del fraude.

Cómo funciona el nuevo fraude con IA

El salto más importante no está solo en que la IA pueda generar textos convincentes. El verdadero cambio está en la automatización de todo el proceso.

Según Bloomberg, herramientas como FraudGPT, un modelo entrenado con datos procedentes de filtraciones, pueden probar en pocos minutos cientos de miles de números de la Seguridad Social hasta encontrar combinaciones válidas con baja actividad financiera.

A partir de ahí entran en juego sistemas más complejos. Los agentes autónomos pueden dividir el fraude en varias tareas:

  • buscar datos personales en la dark web;
  • combinar información filtrada de distintas fuentes;
  • contactar con varios bancos bajo identidades diferentes;
  • rellenar formularios de préstamos o ayudas públicas;
  • generar documentación falsa;
  • crear mensajes de phishing personalizados;
  • automatizar solicitudes a gran escala.

En el caso de Haque, una empleada del sistema estadounidense de ayuda financiera estudiantil le explicó que el alto número de solicitudes universitarias presentadas en tan poco tiempo difícilmente podía explicarse sin algún tipo de ayuda automatizada.

Deepfakes, carnés falsos y cuentas vaciadas

El fraude también se ha vuelto más visualmente convincente.

Naureen Ali, responsable de fraude en TransUnion para Estados Unidos, describe un esquema conocido como bust-out. Primero, los estafadores abren pequeñas líneas de crédito en bancos locales. Luego, cuando la identidad parece más creíble, solicitan créditos mayores en entidades más grandes.

En algunos casos, la documentación física se completa con carnés de conducir falsos generados mediante deepfake. Una vez que las tarjetas y cuentas están activas, los delincuentes las llevan al límite y desaparecen.

Ali estima que las pérdidas globales por fraude superan los 534.000 millones de dólares al año, aunque no especifica qué parte corresponde directamente a operaciones impulsadas por IA.

Por qué la IA hace el fraude más peligroso

La inteligencia artificial cambia el fraude por tres razones principales: velocidad, escala y credibilidad.

Antes, muchos ataques requerían tiempo, conocimientos técnicos y trabajo manual. Ahora, una sola persona puede automatizar tareas que antes necesitaban equipos enteros. Además, los mensajes fraudulentos ya no tienen los errores evidentes que antes ayudaban a detectarlos.

Bruemmer lo resume de forma clara: la IA hace que los ataques sean más rápidos, más sofisticados y visualmente más convincentes.

Esto se nota especialmente en el phishing. Los correos falsos pueden imitar mejor el tono de una empresa, usar datos personales reales y adaptar el mensaje a la víctima. Para muchos usuarios, distinguir entre un mensaje legítimo y uno fraudulento se vuelve cada vez más difícil.

Tamás Kádár, CEO de la empresa de prevención de fraude SEON, advierte además que los estafadores ya pueden crear sitios web completos de phishing sin escribir una sola línea de código.

La defensa también depende de la IA

La paradoja es que, frente a una ola de fraude impulsada por inteligencia artificial, muchas de las defensas más eficaces también dependen de la IA.

TransUnion utiliza controles automatizados de liveness, diseñados para detectar si una selfie pertenece a una persona real o si ha sido generada artificialmente. SEON, por su parte, analiza transacciones mediante sistemas propios de puntuación de riesgo.

Estas herramientas buscan identificar patrones sospechosos antes de que el fraude avance demasiado. Sin embargo, la carrera entre atacantes y defensores se está acelerando.

Qué pueden hacer los usuarios para protegerse

Aunque las empresas financieras están reforzando sus sistemas, los expertos siguen recomendando medidas básicas de protección personal.

Entre las más importantes están:

  • congelar el crédito cuando no se necesite abrir nuevas líneas;
  • activar la autenticación multifactor;
  • usar passkeys siempre que sea posible;
  • evitar contraseñas repetidas;
  • revisar movimientos bancarios y reportes de crédito;
  • desconfiar de enlaces recibidos por correo o mensaje;
  • no usar redes Wi-Fi públicas sin VPN;
  • actuar rápido ante cualquier solicitud o cuenta desconocida.

Estas medidas no eliminan el riesgo, pero pueden dificultar que los delincuentes conviertan datos robados en fraude financiero real.

Conclusión experta

La inteligencia artificial está cambiando la naturaleza del robo de identidad. El problema ya no es solo que haya más datos personales filtrados, sino que esos datos pueden ser procesados, combinados y explotados a una velocidad mucho mayor.

Los deepfakes, los agentes autónomos y las herramientas de fraude basadas en IA convierten el robo de identidad en una operación más industrializada. Para bancos, universidades, agencias de crédito y usuarios, esto obliga a replantear la seguridad digital.

La defensa ya no puede depender únicamente de revisar documentos o detectar correos sospechosos. En la nueva etapa del fraude, será clave combinar verificación biométrica, análisis de comportamiento, sistemas de riesgo en tiempo real y hábitos de seguridad mucho más estrictos por parte de los usuarios.