La velocidad de las estafas basadas en IA: 1,6 millones de intentos de registro de bots por hora
- Actualidad

El último informe Cyber Signals de Microsoft se centra en las ciberestafas asistidas por inteligencia artificial generativa, particularmente en tres ámbitos: las estafas de soporte técnico, el fraude en el comercio electrónico y el relacionado con las ofertas de empleo.
Microsoft ha publicado los detalles de su último informe Cyber Signals, basado en los datos de los sistemas de la compañía en un período que abarca de abril de 2024 a abril de este año. Las cifras son demoledoras: 4.000 millones de dólares en intentos de fraude frustrados, 49.000 inscripciones fraudulentas de partners y 1,6 millones de intentos de registro de bots por hora. Y eso sin sumar los datos de otros proveedores de ciberseguridad.
El informe explica cómo han evolucionado las ciberestafas gracias a la Inteligencia Artificial, utilizada tanto a través de aplicaciones legítimas como con herramientas orientadas al fraude. La IA ha reducido el nivel de conocimiento técnico necesario para los ciberdelincuentes, ha mejorado sus capacidades de escaneo y rastreo de las webs y ha facilitado la creación de contenido, la suplantación de identidad y la realización de fraudes complejos.
Principales amenazas apoyadas en la IA
Los tres ámbitos en los que se ha utilizado más la IA son las estafas de soporte técnico, el fraude en el comercio electrónico y el relacionado con las ofertas de empleo. En el primer caso, se engaña a las víctimas ofreciendo un soporte técnico innecesario, utilizando en ocasiones el phishing de voz (vishing), como realizó el grupo Storm-1811. En el fraude de comercio electrónico se usa la inteligencia artificial para crear páginas web y contenidos falsos, así como para crear chatbots maliciosos de atención al cliente.
También se utiliza para crear ofertas de empleo falsas, en las que realizan incluso entrevistas basadas en IA que, junto a “los correos electrónicos automatizados aumentan la credibilidad de las estafas laborales”. Además de las numerosas herramientas de Microsoft para combatir este uso de la inteligencia artificial, como Microsoft Defender for Cloud, las funciones antiestafa de Microsoft Edge o el bloqueo de usuarios falsos en Azure, la compañía considera que las organizaciones deberían trabajar de forma conjunta en este ámbito.
Así, Kelly Bissell, vicepresidente corporativo de Antifraude y Abuso de Productos de Microsoft Security, señala que, “si protejo a Microsoft, está bien, pero no es suficiente. Del mismo modo, si Apple hace lo suyo y Google también, pero no trabajamos juntos, todos hemos perdido una gran oportunidad. Debemos compartir información sobre ciberdelincuencia entre nosotros y educar al público”.