La Inteligencia Artificial con fines delictivos suscita interés

  • Actualidad

hacker dark web ©Freepik

Se han encontrado casi 3.000 publicaciones en la dark web que tratan sobre el uso de ChatGPT y otros modelos de lenguaje a gran escala (LLM) para actividades ilegales.

Los ciberdelincuentes están explorando esquemas, desde la creación de alternativas del chatbot hasta el jailbreaking. Las cuentas de ChatGPT robadas y los servicios que ofrecen su creación automatizada en masa también están inundando los canales de la dark web.

En 2023, el servicio de Inteligencia de Kaspersky Digital Footprint descubrió casi 3.000 posts en la dark web, en los que se hablaba del uso de ChatGPT con fines ilegales o de herramientas que se basan en tecnologías de IA. Las conversaciones alcanzaron su punto álgido en marzo, según afirman desde la compañía. “Los actores de amenazas están explorando activamente varios esquemas para implementar ChatGPT e IA. Los temas incluyen con frecuencia el desarrollo de malware y otros tipos de uso ilícito de modelos lingüísticos, como el procesamiento de datos de usuario robados o el análisis sintáctico de archivos de dispositivos infectados”, explica Alisa Kulishenko, analista de Kaspersky Digital Footprint.

Aparte de los chatbot y la IA mencionados, se está prestando mucha atención a proyectos como XXXGPT o FraudGPT, entre otros. Estos modelos lingüísticos se comercializan en la dark web como alternativas a ChatGPT, presumiendo de funcionalidad adicional y ausencia de las limitaciones originales. “La popularidad de las herramientas de IA ha llevado a la integración de respuestas automáticas de ChatGPT o sus equivalentes en algunos foros de ciberdelincuentes. Además, tienden a compartir jailbreaks a través de diversos canales de la dark web y a idear formas de explotar herramientas legítimas, como las de pentesting, basadas en modelos con fines maliciosos”, añade Kulishenko.

Cuentas robadas de ChatGPT a la venta

Otra amenaza para usuarios y empresas es el mercado de cuentas de la versión de pago de ChatGPT. En 2023, se identificaron otros 3.000 mensajes (aparte de los mencionados anteriormente) que anunciaban la venta de cuentas de ChatGPT en la dark web y en canales de Telegram. Estos mensajes distribuyen cuentas robadas o promocionan servicios de registro automático que crean cuentas de forma masiva bajo petición. 

“Aunque las herramientas de IA en sí mismas no son peligrosas, los ciberdelincuentes están tratando de idear formas eficientes de utilizar modelos lingüísticos, alimentando así una tendencia de reducción de la barrera de entrada a la ciberdelincuencia y, en algunos casos, aumentando el número de ciberataques. Sin embargo, es poco probable que la IA generativa y los chatbots revolucionen el panorama de los ataques, al menos en 2024, puesto que los ciberataques a menudo implican defensas automatizadas. No obstante, mantenerse informado sobre las actividades de los atacantes es crucial para ir por delante de los adversarios en términos de ciberseguridad corporativa”, concluye la analista.

Para evitar las amenazas relacionadas con las actividades de los ciberdelincuentes en Internet, se deben aplicar las siguientes medidas de seguridad:

Utilizar una herramienta de IA para ayudar a los analistas de seguridad a explorar las opciones que tienen los ciberdelincuentes para acceder a los recursos de la empresa, descubriendo rápidamente los posibles vectores de ataque de los que disponen. Esto también ayuda a conocer las amenazas existentes de los ciberatacantes para ajustar las defensas de la empresa o tomar medidas de contrarresto y eliminación a tiempo.

Elegir una solución de seguridad para fiable y equipada con detección basada en el comportamiento y funciones de control de anomalías para obtener una protección eficaz contra amenazas conocidas y desconocidas.

Combatir ataques de alto perfil con herramientas de detección y respuesta para ayudar a identificar y detener intrusiones durante las primeras etapas, antes de que los ciberdelincuentes logren sus objetivos. Este enlace da acceso a la investigación detallada en la web de Kaspersky Digital Footprint Intelligence.