Los ciberdelincuentes tratan de crear una metodología que evite las restricciones de ChatGPT

  • Actualidad

ChatGPT

Los expertos de la unidad de Inteligencia de Amenazas de Check Point han detectado que los ciberdelincuentes han incrementado el uso de los bots de Telegram con el objetivo de crear una nueva metodología que logre saltarse las restricciones de ChatGPT y otras herramientas basadas en OpenAI.

  Recomendados....
 

» 1er Encuentro IT Digital Magazine. Cloud, palanca de crecimiento y gestión empresarial Registro
» El nuevo paradigma de seguridad para entornos SD-WAN Acceso
» Replanteando la gestión de residuos y eliminación de activos informáticos Guia

En las últimas semanas se ha escrito mucho sobre que el sistema de chat basado en el modelo de lenguaje por IA GPT-3 desarrollado por OpenAI, ChatGPT, puede ser tanto utilizado por los ciberdelincuentes como por los defensores

De hecho, en torno a mediados de enero, Check Point ya alertaba de que, en foros clandestinos, los ciberdelincuentes ya hablaban de la creación de infostealers, herramientas de cifrado y facilitando la actividad fraudulenta

Consciente de los problemas que pudieran surgir, explica esta firma de ciberseguridad que OpenAI ha actualizado su política de contenidos, creando barreras y restricciones para tratar de detener la creación de contenidos maliciosos. Se han establecido varias restricciones dentro de la interfaz de usuario de ChatGPT para evitar su uso inapropiado; por ejemplo, a partir de ahora la IA no generará respuestas para aquellas peticiones con alusiones concretas a la creación de malware o correos electrónicos de phishing que traten de hacerse pasar por un banco u otras entidades.

Pues bien, según su unidad de Inteligencia de Amenazas, Check Point Research, los cibercriminales están intentando saltarse estas restricciones para seguir creando malware. Su expertos informan de que actualmente se ha generado mucha actividad en los foros clandestinos, en los que se habla sobre cómo utilizar la API de OpenAI para saltarse las barreras y limitaciones de estas herramientas, destacando un modelo que se centra en la creación y distribución de bots de Telegram que emulan la API de ChatGPT.

Concretamente, se han detectado diversos anuncios y modelos de negocio que garantizan una herramienta maliciosa con la capacidad de realizar hasta 20 premisas de manera gratuita, ampliables por un coste reducido de tan sólo 5,5 dólares por cada 100 nuevas consultas. Un coste prácticamente nulo en comparación con las altas ganancias que se obtienen de este tipo de ciberataques.

Los ciberdelincuentes siguen explorando cómo utilizar ChatGPT para desarrollar malware y correos electrónicos de phishing. A medida que mejoran los controles que implementa ChatGPT, encuentran nuevas formas de utilizar los modelos de OpenAI. “La versión actual de la API de OpenAI, disponible para su uso en aplicaciones externas, tiene muy pocas medidas de control. Como resultado, permite crear contenido malicioso como correos electrónicos de phishing y código de malware sin las limitaciones o barreras que ChatGPT ha establecido en su interfaz de usuario”, subraya Eusebio Nieva, director técnico de Check Point Software para España y Portugal.