ChatGPT puede ser un aliado para los atacantes y también para los defensores

  • Actualidad

Inteligencia artificial

Aunque los ciberdelincuentes pueden usarlo como parte de sus estafas, al permitir crear correos de phishing persuasivos, personalizados y masivos, y poder generar código malicioso, ChatGPT puede desvelar rápidamente la función para la que ha sido creado un código, algo útil en los SOC.

ChatGPT, uno de los modelos de Inteligencia Artificial más potentes hasta la fecha, puede cambiar las reglas establecidas en el mundo de la ciberseguridad. Se trata de un sistema de Inteligencia Artificial capaz de generar escritos que apenas se diferencian de los elaborados por una persona. Por ello, los ciberdelincuentes aplican esta tecnología a los ataques de spear-phishing, estafa de correo electrónico o comunicaciones dirigida a personas, organizaciones o empresas específicas.

Escribir mensajes personalizados suponía hasta ahora un gran esfuerzo para los ciberdelincuentes, pero ChatGPT permite crear correos de phishing persuasivos, personalizados y masivos. De este modo, se prevé que los ataques de éxito basados en este modelo de Inteligencia Artificial crecerán, vaticina Kaspersky.

Por si fuera poco, ChatGPT es también capaz de generar código informático malicioso, por lo que ya no hace falta tener conocimientos de programación para crear malware. Aunque algunos expertos han manifestado su preocupación por que ChatGPT pueda crear malware hecho para cada persona, el código mostrará un comportamiento malicioso que en casi todas las ocasiones será detectado por las soluciones de seguridad. La automatización completa de código malware no se ha conseguido por el momento. Además, el código malicioso que genera no tiene por qué funcionar correctamente. Se requiere de un especialista humano, capacitado y dedicado si se quiere mejorar el código.

Con todo ello, ChatGPT puede ser un aliado para los atacantes, pero también para quienes quieren defenderse de este tipo de amenazas. Puede desvelar rápidamente la función para la que ha sido creado un código informático, algo especialmente interesante en los SOC, donde los expertos tienen mucha carga de trabajo. Cualquier herramienta que acelere los procesos de análisis es siempre bienvenida. En el futuro se verán sistemas inversos de ingeniería que ayudarán a comprender mejor el código y a crear modelos de investigación de vulnerabilidades y resolución de CTF (Capture The Flag) y mucho más.

“ChatGPT no tiene un impacto inmediato en la industria y no modifica las reglas de la ciberseguridad, pero las próximas generaciones de IA probablemente sí lo harán. En los próximos años, veremos cómo los modelos de Inteligencia Artificial entrenados tanto en lenguaje natural como en código de programación se adaptarán a casos específicos de ciberseguridad. Estos cambios pueden afectar a una amplia gama de actividades del sector, desde la búsqueda de amenazas hasta la respuesta a incidentes. Las empresas de ciberseguridad explorarán las posibilidades que brindarán estas nuevas herramientas, al mismo tiempo que serán conscientes de cómo esta nueva tecnología puede ayudar a los ciberdelincuentes”, asegura Vladislav Tushkanov, experto en seguridad de Kaspersky.