El futuro del malware estará protagonizado por los LLM
- Actualidad
Los grandes modelos de lenguaje pueden convertirse en el núcleo de programas maliciosos autónomos. Las pruebas realizadas muestran que GPT-3.5 y GPT-4 ya pueden integrarse con malware, aunque con limitaciones, mientras que GPT-5 mejora la fiabilidad del código, señala Netskope.
Los Laboratorios de Amenazas (Threat Labs) de Netskope han publicado un nuevo análisis que plantea un escenario inquietante: la posibilidad de crear programas maliciosos autónomos basados únicamente en instrucciones de grandes modelos de lenguaje (LLM) y código esencial.
Los LLM han transformado la industria tecnológica, convirtiéndose en herramientas valiosas para la automatización, la codificación asistida y la investigación. Sin embargo, su adopción masiva también abre la puerta a problemas críticos de ciberseguridad, al demostrar que pueden ser utilizados para generar código malicioso de forma dinámica y sin necesidad de instrucciones detectables.
Una revolución tecnológica con riesgos emergentes
Las pruebas realizadas por Netskope Threat Labs arrojan varias conclusiones clave, empezando por la posibilidad de combinar GPT-3.5-Turbo y GPT-4 con software malicioso, lo que establece la viabilidad arquitectónica de una amenaza autónoma impulsada por LLM.
Por otra parte, aunque GPT-4 bloquea peticiones directas de código malicioso, sus defensas pueden ser sorteadas mediante técnicas de inyección puntual basadas en roles, permitiendo generar código para ataques como Process Injection o la finalización de procesos de antivirus/EDR. Además, GPT-3.5 y GPT-4 no logran producir código fiable para detectar entornos virtuales, lo que limita su eficacia en escenarios reales.
Las pruebas preliminares muestran que GPT-5 mejora significativamente la fiabilidad del código, desplazando el reto hacia la superación de salvaguardas de seguridad más avanzadas.
El objetivo de Netskope Threat Labs era comprobar la viabilidad de un malware totalmente autónomo. Sus pruebas confirmaron que este tipo de software puede generar código dinámico y prescindir de instrucciones detectables, lo que representa un cambio radical en el paradigma de las amenazas digitales.
No obstante, el análisis también reveló que confiar en los LLM para generar scripts de evasión de virtualización es ineficiente desde el punto de vista operativo, con una baja tasa de éxito que limita la automatización completa del ciclo de vida del malware.
Este avance plantea un desafío para la industria de la ciberseguridad, que deberá reforzar sus defensas frente a un escenario en el que los modelos de lenguaje no solo sean herramientas de productividad, sino también potenciales motores de ataques automatizados.