Cómo aprovechar ChatGPT para mejorar la ciberseguridad: Sophos ya trabaja en ello

  • Actualidad

ChatGPT

El modelo de IA puede filtrar más fácilmente la actividad maliciosa en la telemetría XDR, mejorar los filtros de spam y simplificar el análisis de ataques "Living Off the Land Binaries", técnica que aprovecha los binarios propios del sistema para ocasionar un importantes daños.

Sophos acaba de publicar una investigación sobre cómo la industria de la ciberseguridad puede aprovechar GPT-3, el modelo de lenguaje detrás de ChatGPT, como ayuda para derrotar a los atacantes, basándose en los modelos de lenguaje de GPT-3 para simplificar la búsqueda de actividad maliciosa en conjuntos de datos de software de seguridad, filtrar el spam con mayor precisión y acelerar la velocidad de análisis de ataques de LOLBin, abreviatura de "Living Off the Land Binaries".

“Desde que OpenAI presentó ChatGPT en noviembre, la comunidad de seguridad se ha centrado en gran medida en los riesgos potenciales que podría traer esta nueva tecnología", explica Sean Gallagher, investigador principal de amenazas de Sophos. Quizás, reconoce la compañía, los atacantes pueden utilizarlo para escribir malware o a escribir correos electrónicos de phishing mucho más convincentes, pero su perspectiva es ver la tecnología de IA como un aliado en lugar de un enemigo para los defensores, y GPT-3 no es diferente. Por eso, piensa que el sector "debería prestar atención no solo a los riesgos potenciales, sino también a las oportunidades potenciales que brinda GPT-3”, prosiguió el experto.

Los investigadores de Sophos X-Ops, incluido el científico principal de datos de SophosAI, Younghoo Lee, han trabajado en tres proyectos que demuestran el potencial de GPT-3 como asistente para los defensores de la ciberseguridad. Los tres utilizan una técnica llamada "“few-shot learning” para entrenar el modelo de IA con solo unas pocas muestras de datos, lo que reduce la necesidad de recopilar un gran volumen de datos preclasificados.

La primera aplicación que Sophos probó con este método fue una interfaz de consulta de lenguaje natural para filtrar la actividad maliciosa en la telemetría del software de seguridad. El especialista en ciberseguridad utilizó el modelo contra su producto de detección y respuesta en endpoints. Con esta interfaz, los defensores pueden filtrar la telemetría con comandos básicos en inglés, lo que elimina la necesidad de que entiendan SQL o la estructura subyacente de una base de datos.

Después, probó un nuevo filtro de spam usando ChatGPT y descubrió que, en comparación con otros modelos de aprendizaje automático para el filtrado de spam, el filtro que empleaba GPT-3 era significativamente más preciso. 

En tercer lugar, los investigadores de Sophos pudieron crear un programa para simplificar el proceso de ingeniería inversa de las líneas de comando de LOLBins. Este tipo de ingeniería es complicado, pero también fundamental para comprender el comportamiento de LOLBins y detener ese tipo de ataques en el futuro.

“Una de las preocupaciones de los centros de operaciones de seguridad es la gran cantidad de 'ruido' que ingresa. Hay demasiadas notificaciones y detecciones para clasificar, y muchas empresas están lidiando con recursos limitados. Hemos demostrado que, con algo como GPT-3, podemos simplificar ciertos procesos que requieren mucha mano de obra y devolver un tiempo valioso a los defensores", añadió .

La firma ya está trabajando para incorporar algunos de estos prototipos en sus productos y ha puesto a disposición los resultados de sus esfuerzos en suo GitHub para aquellos interesados en probar GPT-3 en sus propios entornos de análisis. "En el futuro, creemos que GPT-3 puede muy bien convertirse en un copiloto estándar para los expertos en seguridad”, afirmó Gallagher.