ChatGPT podría utilizarse para crear malware polimórfico altamente complejo

  • Endpoint

El popular chatbot de OpenAI ofrece la capacidad para escribir malware que no contiene código malicioso, por lo que no da la impresión de ser sospechoso mientras está en la memoria, lo que lo hace altamente evasivo para los sistemas de seguridad que dependen de la detección basada en firmas.

  Recomendados....

» Active Directory, protegiendo el corazón de la organización Leer
» Cómo mejorar la seguridad con servicios gestionados Informe
» Tendencias en ciberseguridad para blindar a las empresas Acceder 

ChatGPT ya ha cautivado a medio mundo. Se trata de un chatbot de OpenAI que puede utilizarse para múltiples tareas y tiene la posibilidad de crear código, de ahí que podría usarse fácilmente para crear malware.

Con el aprendizaje automático en su núcleo, ChatGPT genera respuestas utilizando una gran colección de datos y anteriores. Y aunque sus funciones ofrecen ejemplos de código rápidos e intuitivos, increíblemente beneficiosos, el equipo de investigadores de CyberArk Labs ha descubierto que este sistema de chat se puede aprovechar para mal, dada su capacidad para escribir malware sofisticado que no contiene código malicioso.

Los investigadores de CyberArk Labs han pasado por alto los filtros de contenido de ChatGPT para mostrar cómo, con muy poco esfuerzo o inversión, es posible consultar continuamente ChatGPT para recibir una pieza de código única, funcional y validada, es decir, probada cada vez. Esto da como resultado malware polimórfico que no muestra un comportamiento malicioso mientras está almacenado en el disco. Este nivel de modularidad y adaptabilidad lo hace altamente evasivo para los sistemas de seguridad que dependen de la detección basada en firmas.

Aunque ChatGPT es una herramienta online, en realidad no tiene acceso a Internet y, por lo tanto, no puede consultar ni leer nada online, lo que hace que no pueda proporcionar respuestas actualizadas. En cambio, cuando se le solicite un código, ChatGPT generará un código modificado o inferido en función de los parámetros que establezca, en vez de reproducir, simplemente, ejemplos que ha aprendido previamente.

Por otro lado, los investigadores de CyberArk Labs destacan que, aunque ChatGPT intentará responder cualquier cosa, incorpora filtros de contenido que evitan que responda preguntas sobre temas que podrían ser problemáticos, como la inyección de código, por ejemplo.

Para los investigadores de CyberArk Labs, el hecho de que ChatGPT sea de naturaleza polimórfica es una preocupación añadida, ya que “el malware polimórfico es muy difícil de manejar para los productos de seguridad porque realmente no puede firmarlos. Además, por lo general, no dejan ningún rastro en el sistema de archivos ya que su código malicioso solo se maneja en la memoria. Aparte de que, al ver el ejecutable\elf, probablemente parezca benigno”.