GenAI, una “gran aliada” de los ciberdelincuentes

  • Actualidad

IDC IA generativa

La ciberdelincuencia emplea cada vez más la IA generativa para crear cuentas falsas de RRSS, suplantar la identidad con deepfake, crear automáticamente textos de spam y generar documentación falsa para acceder a los servicios de verificación KYC.

Durante el último año, la Inteligencia Artificial Generativa -como ChatGPT- ha ido ganando presencia, y gran cantidad de empresas siguen explorando las capacidades que puede brindarles la IA para proteger sus equipos.

Pero, mientras tanto, los ciberdelincuentes están sacando todo su potencial para explotar vulnerabilidades y crear nuevos vectores de ataques. Un año después del lanzamiento de ChatGPT, se puede observar cómo muchos servicios de ciberdelincuencia ya utilizan de manera habitual la IA generativa, especialmente en el ámbito de la suplantación y la ingeniería social, y están eludiendo las restricciones de ChatGPT para usarlo sin límites y aumentar así la eficacia de sus ataques.

Conscientes del potencial de la IA generativa a la hora de crear amenazas cada vez más sofisticadas, Check Point Software ha examinado cuatro ejemplos diferentes de cómo se ha empleado la IA generativa para potenciar los ciberataques:

Plataforma Black-Hat impulsada con IA para suplantar las redes sociales. Las cuentas falsas en redes sociales representan una amenaza significativa para la ciberseguridad debido a su potencial para llevar a cabo actividades maliciosas, como la suplantación de marcas o la difusión de fake news. El estudio apunta a que se ha detectado una nueva plataforma en la que se emplea la Inteligencia Artificial para generar contenido en redes sociales y automatizar el mantenimiento de las cuentas falsas. La plataforma puede crear contenido simultáneamente para más de 200 cuentas y hacerlo de manera diaria. Además, promocionan los perfiles y les dan sensación de autenticidad uniéndose a grupos relevantes, dando a “me gusta” a cuentas similares, para poder conseguir más seguidores y usar este tráfico de cuentas para sus fines maliciosos.

Servicio de deepfakes impulsado por IA. La firma de ciberseguridad señala haber identificado un nuevo servicio de suplantación que se centra en proporcionar servicios de deepfake de tres formas diferentes: sincronización de labios, sincronización de labios y reemplazo de rostro, y doblaje de voz. El uso de estos servicios se suele emplear para crear perfiles falsos en redes sociales y así promover agendas políticas o productos, y también para suplantar identidades de personalidades relevantes para provocar graves daños en su reputación.

Herramientas y servicios de spam impulsados por IA. Una de las formas más comunes en las que se emplea la IA es en la generación de spam con diversos objetivos como el phishing, obtención de credenciales, distribución de malware y estafas, entre otros propósitos. Los ciberdelincuentes pueden crear textos únicos para cada correo, con lo que consiguen eludir los controles antispam y antiphishing de los servicios de correo electrónico con una tasa éxito del 70%.

Servicios de verificación KYC. Los servicios de KYC (Know Your Client) son una práctica cada vez más común en las empresas financieras en las que recopilan información detallada de sus clientes para garantizar la seguridad de sus transacciones, mitigar los riesgos y cumplir con las regulaciones. También se emplea para que los clientes puedan recuperar el acceso a sus cuentas como una forma de reestablecer la contraseña. Con el fin de acceder a estos sistemas de forma ilícita, se han creado servicios clandestinos que generan documentación falsa con ayuda de la IA y consiguen unos resultados muy fieles rápidamente.