Saltar al contenido
Tu Vozz: Donde las Noticias Resuenan

Tu Vozz: Donde las Noticias Resuenan

Donde las Noticias Resuenan

Menú principal
  • INICIO
  • NOTICIAS
  • FARANDULA
  • SALUD
  • DEPORTES
  • ECONOMIA
  • POLITICA
  • INTERNACIONAL
  • ENTRETENIMIENTO
  • TECNOLOGIA
  • Inicio
  • TECNOLOGIA
  • 7 casos reales de estafas donde se utilizaron deepfakes
Anúnciate Aquí
  • TECNOLOGIA

7 casos reales de estafas donde se utilizaron deepfakes

vozzmedia septiembre 12, 2025
7 casos reales de estafas donde se utilizaron deepfakes - Imagen
Anúnciate Aquí

Los cibercriminales encontraron en la utilización de la inteligencia artificial una manera de potenciar sus estafas, y que sus engaños sean más reales y difíciles de detectar. En el último tiempo se observaron videos falsos en los que se suplanta la identidad de personas de renombre internacional, como Lionel Messi o el CEO de una importante organización, aunque también existen en escalas más pequeñas, como un director de una escuela en Estados Unidos.

ESET, compañía líder en detección proactiva de amenazas, repasa algunos de los casos en donde las deepfakes fueron la herramienta principal para diagramar estafas que generaron pérdidas millonarias o de información sensible.


¿Qué es un deepfake?

El deepfake es una técnica de síntesis de imágenes humanas basada en inteligencia artificial para crear contenido falso desde cero, utilizando videos existentes o incluso solo a partir de una imagen estática. Están diseñados para replicar la apariencia y el sonido de una persona real.

“Con la evolución de la Inteligencia Artificial, estos vídeos y audios parecen cada vez más reales. Muchos explotan la imagen de figuras públicas o entidades de renombre diciendo algo falso, como parte de una estafa que busca obtener dinero o información sensible”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.


Casos reales recopilados por ESET

1. Lionel Messi

El jugador argentino fue víctima de un deepfake en el que promovía la aplicación fraudulenta «Wildcat Dive», supuestamente como una de sus fuentes de ingresos. A través de publicidades en Instagram, se difundieron fragmentos manipulados de una entrevista real.

2. Arup

En 2024, un empleado financiero de la oficina en Hong Kong fue engañado en una videollamada deepfake con el supuesto director financiero. El resultado: 15 transferencias por más de 25 millones de dólares.

3. Ferrari

En julio de 2024, ciberdelincuentes imitaron la voz de Benedetto Vigna, CEO de Ferrari, intentando convencer a ejecutivos de realizar una millonaria transferencia. Un empleado detectó la farsa con una pregunta que la IA no pudo responder, frustrando el intento.

4. WPP

Una de las mayores agencias de publicidad fue blanco de un deepfake. Con un falso CFO, los atacantes organizaron una reunión en Microsoft Teams. El intento fracasó gracias a la capacitación y alerta del personal.

5. Escuela de Baltimore

Un audio falso atribuido al director de una escuela contenía comentarios racistas y antisemitas. El material se viralizó con más de 2 millones de visualizaciones, generando amenazas de muerte. La policía confirmó que era manipulado con IA.

6. Elon Musk

Deepfakes del empresario se usaron en anuncios de supuestas inversiones en Bitcoin difundidos en X y YouTube. Según la FTC, más de 7.000 víctimas perdieron en conjunto más de 80 millones de dólares.

7. Presidente Zelensky

En marzo de 2022, circuló un video apócrifo donde el mandatario ucraniano instaba a rendirse en plena guerra con Rusia. Zelensky desmintió rápidamente la falsificación con un video oficial.


Recomendaciones de ESET para evitar ser víctima de deepfakes

  • Desconfiar de anuncios llamativos que prometen ganancias demasiado buenas.

  • Revisar la calidad del video: errores de sincronización o baja resolución pueden ser señales de falsificación.

  • Utilizar software de seguridad en todos los dispositivos.

  • En empresas, no autorizar pagos solo por llamadas o videollamadas; incluir códigos internos de validación.

  • Fomentar la capacitación continua para reconocer señales de alarma.

  • Aprovechar herramientas actuales de detección de deepfakes y combatir la desinformación.

Acerca del autor

vozzmedia

Administrator

Visitar el sitio web Ver todas las entradas
Anúnciate Aquí

Navegación de entradas

Anterior: «Trucos gratis» en juegos virtuales, se convierten en amenazas reales.
Siguiente: “PRECISIONES PERTINENTES SOBRE DENUNCIAS DE CORRUPCION EN LA ANUNCIADA VENTA DEL HOTEL SANTO DOMINGO”

Historias relacionadas

Malware que se camufla como Adobe para robar información - Imagen
  • TECNOLOGIA

Malware que se camufla como Adobe para robar información

vozzmedia octubre 17, 2025
Un 62.4% empresas personalizan mensajes mediante IA - Imagen
  • TECNOLOGIA

Un 62.4% empresas personalizan mensajes mediante IA

vozzmedia octubre 15, 2025
5 mitos sobre ciberseguridad que pueden ponerte en riesgo - Imagen
  • TECNOLOGIA

5 mitos sobre ciberseguridad que pueden ponerte en riesgo

vozzmedia octubre 15, 2025
Malware que se camufla como Adobe para robar información - Imagen
TECNOLOGIA

Malware que se camufla como Adobe para robar información

vozzmedia
octubre 17, 2025 0
FALTA DE INVERSIÓN ELEVA UN 40% EL RIESGO OPERACIONAL EN SECTORES CLAVE - Imagen
ECONOMIA

FALTA DE INVERSIÓN ELEVA UN 40% EL RIESGO OPERACIONAL EN SECTORES CLAVE

vozzmedia
octubre 16, 2025 0
Un 62.4% empresas personalizan mensajes mediante IA - Imagen
TECNOLOGIA

Un 62.4% empresas personalizan mensajes mediante IA

vozzmedia
octubre 15, 2025 0
5 mitos sobre ciberseguridad que pueden ponerte en riesgo - Imagen
TECNOLOGIA

5 mitos sobre ciberseguridad que pueden ponerte en riesgo

vozzmedia
octubre 15, 2025 0
Todos los derechos reservados © 2024 The Vozz Network, Santo Domingo, República Dominicana Prohibida la reproducción total o parcial de cualquier material sin la autorización expresa de los editores. | MoreNews por AF themes.