Las herramientas de IA utilizadas como cebo de anuncios maliciosos

  • Actualidad
Inteligencia_IA_tecnologia

Los programas de inteligencia artificial generativa que son capaces de generar imágenes de vídeo protagonizan una campaña todavía activa de anuncios falsos que se utilizan para introducir infostealers y abrir puertas traseras que permiten robar información sensible a las víctimas.

Ya hemos analizado en profundidad el modo en que la inteligencia artificial, particularmente en su versión generativa, ha servido para mejorar las capacidades de los ciberatacantes. Además, la proliferación de despliegues de IA en entornos corporativos convirtió esos sistemas en un objetivo preferente de las ciberamenazas. Y, para sacar más partido todavía al momento que vive la IA, también se está utilizando como cebo de campañas de ciberataques.

Así lo señala Mandiant Threat Defense, que detalla en una reciente investigación una campaña todavía activa, que ha sido atribuida al grupo vinculado a Vietnam UNC6032. La campaña se sirve de miles de anuncios maliciosos publicados en redes como Facebook y Linkedin y que promocionan aplicaciones populares de IA generativa que permiten crear vídeos, como Luma AI o Canva Dream Lab.

Los anuncios redirigen a sites maliciosos que imitan esas plataformas, pero en lugar de inteligencia artificial lo que proporcionan son infostealers y puestas traseras. Gracias a ello, pueden robar “discretamente” información sensible, como las credenciales de inicio de sesión, los datos de las tarjetas bancarias o cualquier otro dato confidencial de sus víctimas.

Yash Gupta, senior manager de Mandiant Threat Defense, explica que “un sitio web bien diseñado que se haga pasar por una herramienta de IA legítima puede suponer una amenaza para cualquiera, ya sea para una organización o para particulares. Los usuarios deben ser precavidos a la hora de interactuar con anuncios aparentemente inofensivos y con los sitios web a los que conducen”.