WormGPT 4 y KawaiiGPT, dos LLM maliciosos que multiplican la capacidad de ataque

  • Actualidad
hacker-IA

WormGPT 4 opera como servicio de suscripción con precios bajos y una comunidad activa en Telegram, mientras que KawaiiGPT es gratuito y de código abierto, instalable en minutos desde GitHub. Ambos modelos generan en segundos campañas de phishing, código malicioso funcional, scripts de movimiento lateral y notas de ransomware completas.

Los “ChatGPT” del cibercrimen ya son una realidad. Unit 42 alerta en su último informe de que están creciendo los llamados LLM maliciosos, diseñados para crear ataques informáticos de forma automática y extremadamente convincente. Lejos de usarse para investigar o proteger sistemas, estos modelos, que están siendo comercializados en foros clandestinos y canales de Telegram, se han convertido en aliados de los ciberdelincuentes, de manera que la IA no solo acelera los ciberataques, sino que los multiplica, los automatiza y los pone al alcance de cualquiera.

Ambas plataformas, surgidas entre 2023 y 2025, han cambiado radicalmente quién puede llevar a cabo un ciberataque. WormGPT 4 se ofrece bajo un modelo de suscripción asequible, desde 43 euros al mes, alrededor de 150 al año y hasta 190 por acceso ilimitado, y se distribuye a través de Telegram, donde funciona como una comunidad activa y un canal de ventas con más de 500 suscriptores.

KawaiiGPT, por su parte, es gratuito, de código abierto y puede instalarse en cuestión de minutos, lo que lo convierte en una puerta de entrada especialmente peligrosa para usuarios sin conocimientos avanzados. Está disponible de forma pública en plataformas como GitHub.

 

Creación casi automática de ciberataques 

La accesibilidad de estas herramientas es precisamente lo que las hace tan disruptivas. Permiten que actores con una capacidad técnica muy limitada ejecuten tareas que antes requerían experiencia especializada: desde crear mensajes de spear phishing altamente convincentes, hasta generar scripts de movimiento lateral o herramientas básicas de exfiltración de datos.

Además, la rapidez con la que operan marca un salto cualitativo. Estos modelos pueden generar un ataque completo, desde texto a señuelo, código y hasta instrucciones operativas, en cuestión de minutos. Para los ciberdelincuentes, esto supone multiplicar su capacidad productiva sin necesidad de conocimientos técnicos ni tiempo de preparación.

Estos LLM no solo crean contenidos de ingeniería social más sofisticados de lo habitual, sino que también son capaces de producir código malicioso funcional, redactar notas de rescate listas para usar en ataques de ransomware e incluso guiar al atacante en técnicas de intrusión, evasión y persistencia. El resultado es que cualquier usuario puede lanzar campañas masivas casi instantáneamente, con una sofisticación difícil de detectar tanto para las empresas como para las personas.

La llegada de estas herramientas de inteligencia artificial obliga a las empresas a reforzar su seguridad digital, vigilando el uso de la inteligencia artificial dentro de la empresa, asegurándose de que solo se emplean herramientas aprobadas y seguras; protegiendo el correo electrónico y la navegación web con sistemas que bloqueen enlaces o mensajes sospechosos; formando a los empleados de manera continua, para que aprendan a detectar correos falsos o intentos de engaño que puedan venir de estos nuevos modelos maliciosos; controlando quién tiene acceso a qué información, limitando permisos y reduciendo así las oportunidades de un atacante; realizando revisiones de seguridad periódicas, simulando ciberataques o buscando fallos antes de que puedan ser aprovechados; definiendo normas internas claras sobre el uso de la IA, para evitar que herramientas no autorizadas entren en la organización, y participando en redes de intercambio de información entre empresas, que permiten anticipar nuevas amenazas y responder más rápido.