Los deepfakes de voz de celebridades que proliferan en redes sociales
- Actualidad
Los deepfakes utilizan audio generado por IA (de voces de personas famosas) y lo superponen a videos ya existentes. Los ciberdelincuentes utilizan la tecnología de clonación de voz para replicar el tono de voz de celebridades como Jeniffer Aniston, Oprah, Elon Musk, Tiger Woods y Mr. Beast, entre otros, para respaldar concursos falsos, juegos de azar y oportunidades de inversión.
Bitdefender ha publicado una investigación sobre el rápido crecimiento de los deepfakes de voz de celebridades en las plataformas de redes sociales más populares, como Facebook e Instagram, con el fin de estafar a los usuarios.
Los deepfakes utilizan audio generado por IA (de voces de personas famosas) y lo superponen a videos ya existentes. Los ciberdelincuentes utilizan la tecnología de clonación de voz para replicar el tono de voz de celebridades como Jeniffer Aniston, Oprah, Elon Musk, Tiger Woods y Mr. Beast, entre otros, para respaldar concursos falsos, juegos de azar y oportunidades de inversión.
Principales conclusiones:
· Las estafas de clonación de voz analizadas se dirigieron al menos a 1 millón de usuarios en Estados Unidos y Europa, incluida España. Un anuncio en particular llegó a 100.000 usuarios.
· Las campañas se centran en concursos falsos, juegos de azar y oportunidades de inversión.
· Los anuncios fraudulentos a través de deepfakes de voz se encuentran en las siguientes plataformas de Meta: Facebook, Instagram, Audience Network y Messenger.
· Muchas de las campañas están vinculadas a sitios web clonados por delincuentes de medios de comunicación como The New York Times, Digi24 y Dyson para tener mayor credibilidad.
· Los grupos demográficos más afectados son los usuarios de entre 18 y 65 años.
· Como en la mayoría de las estafas online, el objetivo principal es robar dinero, credenciales e información personal.
Se aconseja a los usuarios que desconfíen de las ofertas que utilizan el respaldo de personas famosas que son demasiado buenas para ser verdad (porque probablemente no lo sean). Este tipo de estafas está evolucionando muy rápidamente y cada vez es más difícil de detectar a medida que la IA mejora.