Ya se pueden automatizar ataques con IA por menos de 200 euros al mes
- Endpoint

Tecnologías como WormGPT o FraudGPT, que operan sin filtros éticos ni restricciones de uso, están siendo empleadas para diseñar ciberataques automatizados de alta precisión, y su proliferación en la dark web pone en jaque los sistemas de seguridad tradicionales.
El avance de la inteligencia artificial ha abierto nuevas oportunidades en todos los sectores, pero también ha dado paso a una creciente amenaza como es el uso deliberado de modelos de IA con fines ilícitos. Logicalis Spain alerta sobre la necesidad urgente de abordar esta nueva dimensión del cibercrimen.
La aparición de modelos generativos como WormGPT, que permiten elaborar correos de phishing en distintos idiomas con una redacción impecable, o FraudGPT, que automatiza la generación de código malicioso y páginas web falsas, marca una nueva etapa en el desarrollo del cibercrimen. Estas herramientas, que operan sin filtros éticos ni restricciones de uso, ya están al alcance de cualquier ciberdelincuente por menos de 200 euros al mes o incluso gratuitamente.
“El uso de inteligencia artificial maliciosa no es un riesgo a futuro, sino una realidad actual. Casos como el fraude por clonación de voz en Reino Unido en 2019, donde un atacante imitó al CEO de una empresa para ordenar una transferencia de 220.000 euros, o las campañas de phishing generadas con IA en 2023, diseñadas con modelos como WormGPT para evadir filtros de seguridad tradicionales, demuestran cómo esta tecnología ya está siendo utilizada para cometer delitos con un nivel de sofisticación creciente”, explica Ramón Rico Gómez, Cybersecurity Operations Manager de Logicalis.
Frente al uso malicioso de la IA, también están emergiendo modelos defensivos capaces de anticiparse a comportamientos anómalos y detectar amenazas como el malware generativo o la suplantación hiperrealista. La clave estará en combinar capacidades predictivas con formación continua de los equipos, así como en generar alianzas sólidas entre el sector público y privado para hacer frente a riesgos que traspasan fronteras y sectores.
“La transformación digital no puede desligarse de la seguridad. Ignorar este equilibrio pone en peligro no solo la reputación y los datos de las organizaciones, sino también la estabilidad de las infraestructuras críticas. La colaboración global en torno a la ética y la regulación de la inteligencia artificial será determinante para asegurar que esta tecnología siga siendo una aliada, y no una amenaza, para el progreso”, concluye Ramón Rico Gómez.