Una nueva y perturbadora ola de estafas utiliza videos y voces deepfake de celebridades para manipular emocionalmente a las víctimas y robarles dinero. El caso de un hombre británico engañado por una «Jennifer Aniston» virtual expone la alarmante sofisticación de estos fraudes.
La inteligencia artificial ha cruzado una nueva y peligrosa frontera en el mundo de las estafas en línea. Los ciberdelincuentes ya no solo envían correos con faltas de ortografía; ahora crean réplicas digitales casi perfectas de celebridades para construir falsas relaciones emocionales y vaciar las cuentas bancarias de sus víctimas.
El caso de Paul Davis, un hombre de 43 años de Southampton, Reino Unido, es un crudo ejemplo de esta nueva amenaza. Durante cinco meses, fue «bombardeado implacablemente» con mensajes y videos de una entidad que afirmaba ser la actriz Jennifer Aniston. El engaño fue tan convincente que terminó perdiendo 200 libras (aproximadamente 415 dólares) y sufriendo un considerable impacto emocional.
El «modus operandi»: Así tejen la red los estafadores con IA
La estafa sufrida por Davis no fue un hecho aislado, sino parte de una campaña coordinada que utiliza tecnología deepfake para suplantar a múltiples figuras públicas, como Elon Musk y Mark Zuckerberg. Sin embargo, el enfoque con «Jennifer Aniston» fue particularmente personal y manipulador.
- Contacto inicial: La estafa comienza con mensajes en redes sociales, a menudo alegando que la víctima ha ganado un «premio especial», como dinero en efectivo o un coche de lujo.
- Construcción de la confianza: Para hacer el engaño creíble, los estafadores envían videos y audios generados por IA. En el caso de Davis, recibió videos de «Aniston» diciéndole «te amo» y llamándolo «mi amor», usando emojis coquetos y fotos manipuladas.
- Pruebas falsas: Para disipar cualquier duda, los delincuentes envían documentos falsificados, como una réplica de la licencia de conducir de la celebridad o «certificados» de Facebook que parecen oficiales, pero que son creaciones digitales de IA.
- La petición de dinero: Una vez establecida la conexión emocional, llega la solicitud económica. La «Jennifer Aniston» falsa le dijo a Davis que su «suscripción estaba a punto de expirar» y le pidió ayuda para pagarla.
«He recibido videos falsos de Jennifer Aniston pidiéndome 200 libras y diciendo que me ama. Lo creí, y pagué. Una vez que te muerden, te vuelves doblemente precavido», confesó Paul Davis a medios británicos.
El método de pago solicitado es otra señal de alarma: tarjetas de regalo de Apple, que no son reembolsables y son difíciles de rastrear. Davis, quien sufre de depresión y se encuentra desempleado, admitió que el impacto emocional y financiero es significativo, y conoce a otras personas que han perdido más de mil libras en estafas similares.
La tecnología detrás del engaño: ¿Cómo crean deepfakes tan realistas?
Los deepfakes son el resultado de modelos de inteligencia artificial entrenados con enormes cantidades de datos. Para crear una suplantación de Jennifer Aniston, los estafadores utilizan:
- Material de origen: Cientos de horas de entrevistas, películas y apariciones públicas de la actriz disponibles en internet. Estos datos son el combustible para entrenar los modelos de IA.
- Entrenamiento del modelo: La IA analiza los patrones faciales, gestos, tono de voz y cadencia del habla de la persona.
- Generación de contenido nuevo: Una vez entrenado, el modelo puede generar videos o audios completamente nuevos, diciendo cosas que la persona real nunca dijo, pero con su apariencia y voz.
La Dra. Jennifer Williams, experta en IA de la Universidad de Southampton, explica que los estafadores pueden «introducir detalles como el nombre de la víctima en el modelo de IA para generar la imagen, refinándola hasta que parezca convincente».
Señales de alerta para no caer en la trampa del «romance phishing» con IA
Este tipo de estafa, que combina la manipulación emocional del «romance scam» con la tecnología del «phishing», es cada vez más difícil de detectar. Sin embargo, existen señales de alerta:
Contacto no solicitado: Las celebridades reales no contactan a extraños en redes sociales para ofrecerles premios o iniciar relaciones.
- Urgencia y emociones fuertes: Los estafadores suelen expresar emociones intensas muy rápidamente para nublar el juicio de la víctima. Frases como «no tengas miedo» están diseñadas para provocar una respuesta emocional.
- Peticiones de dinero o datos: Nunca envíes dinero, datos bancarios o compres tarjetas de regalo para alguien que solo conoces en línea.
- Inconsistencias visuales: Aunque los deepfakes mejoran, a menudo presentan pequeñas fallas: parpadeo extraño, iluminación inconsistente o patrones de píxeles diferentes alrededor de la cara o el texto añadido.
- Lenguaje extraño: Frases con una sintaxis peculiar o una gramática ligeramente incorrecta pueden ser una señal de que el texto es generado por IA o traducido.
Este caso demuestra que la ciberseguridad ya no es solo proteger datos, sino también proteger la confianza y las emociones humanas frente a una tecnología cada vez más capaz de imitar la realidad.
