Los modelos lingüísticos de IA utilizados en estafas de phishing
- Actualidad

Los LLM de la inteligencia artificial generativa no solo están sirviendo a los ciberdelincuentes para crear mensajes de phishing más convincentes, sino que se utilizan también para crear páginas web fraudulentas, según el Centro de Investigación de IA de Kaspersky.
Los modelos de lenguaje a gran escala (LLM) se están utilizando para desarrollar y automatizar estafas, con la creación de mensajes de phishing y webs fraudulentas “en grandes volúmenes”, según afirman los expertos del Centro de Investigación de IA de Kaspersky. Por el momento, la mayor parte de los casos que han detectado se dirigían a usuarios con carteras de criptomonedas.
Eso sí, el uso de LLM deja su huella. Según la compañía, en los textos se encuentran modos de expresión habituales de la IA, como “Si bien no puedo hacer exactamente lo que deseas, puedo intentar algo similar”, o directamente frases en las que explican que son un modelo de IA. Incluso pueden dejar un rastro cuando se han utilizado para crear páginas web completas.
Esto no es tan fácil de detectar para un usuario medio, pero Kaspersky ha encontrado metaetiquetas que, por ejemplo, mostraban un mensaje de la IA diciendo que la longitud del texto superó el límite del modelo. Lo que sí podría ser detectable como pista son los lugares comunes en el texto, como “en el panorama en contante evolución” o “en el mundo en constante cambio”. Serían buenas pistas, si no fuera porque los mensajes de marketing legítimos también contienen esos lugares comunes, estén hechos o no con IA.
Vladislav Tushkanov, gerente del grupo de desarrollo de investigación de Kaspersky, explica que “los modelos de lenguaje de gran escala están mejorando, y los ciberdelincuentes están explorando formas de aplicar esta tecnología para fines maliciosos. Sin embargo, los errores ocasionales brindan información sobre su uso de estas herramientas, concretamente sobre el creciente alcance de la automatización. Con futuros avances, distinguir el contenido generado por IA del texto escrito por humanos podría volverse más desafiante, lo que hace crucial utilizar soluciones de seguridad avanzadas que analicen información textual junto con metadatos y otros indicadores de fraude”.