7 casos reales de estafas con deepfakes alertan sobre el cibercrimen. ESET advierte cómo los deepfakes potencian las estafas digitales
Lima, perú, 14 de septiembre de 2025.— Los deepfakes se consolidan como una de las amenazas más sofisticadas del cibercrimen. ESET Latinoamérica advierte que esta técnica, basada en inteligencia artificial (IA), ya ha sido utilizada para clonar voces e identidades de celebridades, directivos de grandes empresas e incluso de un director escolar en Estados Unidos. El objetivo: obtener dinero, manipular información sensible y generar desinformación a gran escala.
En Buenos Aires, la compañía especializada en seguridad informática recordó que la inteligencia artificial es hoy un recurso poderoso para los ciberdelincuentes. Con ella logran fabricar contenidos falsos casi indistinguibles de la realidad, incrementando la efectividad de fraudes financieros, campañas de phishing y ataques de manipulación mediática.
Table of Contents
Los deepfakes son cada vez más difíciles de detectar
El deepfake es una técnica que emplea algoritmos de IA para sintetizar imágenes y voces humanas. A partir de un video, un audio o incluso una sola fotografía, los sistemas pueden recrear el aspecto y el tono de voz de cualquier persona. Estos falsos contenidos se difunden con rapidez en redes sociales, aplicaciones de mensajería y plataformas de video.
Con la evolución de la Inteligencia Artificial, estos vídeos y audios parecen cada vez más reales. Muchos explotan la imagen de figuras públicas o entidades de renombre diciendo algo falso, como parte de una estafa que busca obtener dinero o información sensible”, afirmó Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.
Siete ejemplos recientes de estafas con deepfakes
La compañía recopiló casos que muestran la magnitud de este fenómeno:
- Lionel Messi: los atacantes difundieron un video manipulado en Instagram en el que el futbolista promovía una aplicación fraudulenta llamada Wildcat Dive, supuestamente para generar ingresos extraordinarios.
- Arup: un empleado de la firma de arquitectura transfirió más de 25 millones de dólares tras recibir una videollamada deepfake de su supuesto director financiero en Hong Kong.
- Ferrari: intentaron imitar la voz de su CEO, Benedetto Vigna, para inducir a una transferencia millonaria. El fraude se frustró gracias a la desconfianza de un colaborador.
- WPP: una de las mayores agencias de publicidad sufrió un intento de estafa mediante videollamadas falsas en Teams y WhatsApp que suplantaban al CFO. La detección temprana evitó pérdidas.
- Escuela de Baltimore: un audio deepfake hizo parecer que un director escolar pronunciaba comentarios racistas y antisemitas, provocando amenazas y una investigación policial que confirmó el engaño.
- Elon Musk: se usó su imagen en X y YouTube para promover inversiones falsas en Bitcoin. Más de 7.000 víctimas perdieron cerca de 80 millones de dólares, según la Federal Trade Commission.
- Volodímir Zelensky: en marzo de 2022 circuló un video manipulado en el que el presidente de Ucrania llamaba a sus tropas a rendirse. El mandatario respondió rápidamente con un video oficial desmintiendo el fraude.
Buenas prácticas para no caer en estafas con deepfakes
ESET recomienda mantener la vigilancia y aplicar medidas preventivas:
- Desconfiar de anuncios que prometen ganancias rápidas o involucran a figuras de renombre.
- Evaluar la calidad del video o audio: fallas en sincronización, resolución o expresión suelen delatar falsificaciones.
- Instalar software de seguridad que bloquee sitios maliciosos y correos fraudulentos.
- Establecer protocolos de verificación adicionales en las empresas, como códigos internos o claves secretas.
- Capacitar de forma continua a los colaboradores para reconocer señales de manipulación digital.
- Usar herramientas especializadas para detectar deepfakes y reducir la propagación de la desinformación.
Tu Opinión Importa
¿Qué opinas sobre el impacto de los deepfakes en la seguridad digital?
Comparte tu visión en los comentarios usando los hashtags #superfan y #itusersawards2024-25.
Recuerda que al participar puedes ganar gadgets tecnológicos y premios sorpresa.