ChatGPT y la seguridad: diez riesgos y diez oportunidades
- Actualidad
ChatGPT lleva acaparando titulares desde hace varios meses, no solo por la innovación que incorpora el desarrollo de OpenAI y el avance que supone incluir la inteligencia artificial generativa a un buen número de soluciones tecnológicas. También se ha escrito mucho por el impacto que puede tener para la seguridad, una cuestión que ha analizado Prosegur Research, desde la perspectiva de los riesgos y las oportunidades.
Recomendados.... |
Las últimas semanas se han producido un buen número de anuncios de proveedores que ya han incluido ChatGPT (o su propuesta de inteligencia artificial generativa combinada con el desarrollo de Open AI) en sus soluciones, como Microsoft, Salesforce o Hubspot.
ChatGPT es uno de los últimos desarrollos de inteligencia generativa. Se trata de una forma de aprendizaje automática, basada en modelos de lenguaje, capaz de generar contenido nuevo en cualquier formato (texto, imagen, vídeo, voz, código).
Teniendo en cuenta el rápido avance de estas tendencias, Prosegur Research, el Insight&trends center de la compañía, ha analizado las implicaciones de ChatGPT desde la perspectiva de la seguridad, y ha identificado los principales riesgos y oportunidades que se abren con su aplicación a diferentes ámbitos.
Diez riesgos
- Polarización social: las IA generativas, dada su capacidad de producir contenidos multimedia, pueden ser utilizadas para difundir mensajes de odio o discriminación, así como mensajes de carácter radical o extremista.
- Phishing: generación automatizada de correos de apariencia real con objeto de engañar a usuarios a efectos de acceder a información confidencial o a los sistemas informáticos. Hay que tener en cuenta que las IA generativas redactan con gran calidad, lo que invalida las sospechas que sí puede despertar un phishing con baja calidad.
- Desinformación: a través de la generación de noticias falsas, se trata de influir en la opinión pública, dañar la cohesión social o afectar a procesos electorales. La desinformación es una clara cuestión que afecta a la seguridad nacional, dañando la cohesión social y los principios democráticos.
- Doxing: la desinformación también es susceptible de afectar a empresas y organizaciones, con la difusión de bulos, informaciones sesgadas, la creación de falsos perfiles laborales, o la manipulación de documentos para dañar la credibilidad de las organizaciones. Su finalidad puede ir desde la parodia hasta el ataque a la reputación o la influencia en los mercados.
- Fuga de información y robo de datos: empresas como Amazon o Google han alertado a sus empleados sobre los riesgos de compartir información sobre la empresa en ChatGPT y aplicaciones similares, que posteriormente pudiera ser desvelada en las respuestas que ofrece a usuarios.
- Fraudes y estafas: son tipologías delictivas que están creciendo con durante estos últimos años. Los fraudes tradicionales, existentes en todos los sectores económicos, son potenciados por el uso de internet, redes sociales y nuevas tecnologías. Las IA generativas pueden contribuir a diseñar fraudes con mucha más calidad, así como a perfilar objetivos.
- Generación de chatbots maliciosos con objetivos delictivos: pueden interactuar con individuos para la obtención de información sensible o fines ilícitos económicos.
- Suplantaciones de identidad: mediante la utilización de las denominadas "deep fakes" y la capacidad de la IA para generar textos imágenes, videos e, incluso, simular la voz. Con el apoyo de la creación de avatares que integren todos estos elementos, se aumenta la verosimilitud de la identidad.
- Generación de código malicioso, como virus, troyanos, malware, ransomware o spyware: el objetivo es cometer ciberdelitos de diferente naturaleza.
- Lucha de poder geopolítico y geoeconómico: en un contexto de poderes difusos y fragmentados, el liderazgo ya no sólo se mide por la capacidad económica, la diplomática o la militar. Ya en el año 2017, Vladimir Putin señaló que quien dominara la IA dominaría el mundo. La geopolítica y la geoeconomía presentan nuevos riesgos, pero también oportunidades para estados y empresas que sean capaces de leer el futuro. Los datos, junto a las tecnologías, están en el centro de configuración del poder, lo que genera una asimetría entre quienes disponen de ellos y quienes no.
Oportunidades
- Automatización de tareas rutinarias en funciones de seguridad: podría potenciar las competencias más humanas y facilitar el bienestar de los empleados, al eliminar tareas repetitivas y tediosas.
- Generación de chatbots atractivos: con un perfil más amable y humano, para mejorar la interacción con clientes y con otras personas.
- Acceso a ingentes cantidades de información de interés para la seguridad, de una manera estructurada por el uso del lenguaje natural: en este caso, se potencian las capacidades de inteligencia de fuentes abiertas (OSINT), siendo siempre conscientes de la criticidad de evaluar la fiabilidad de las fuentes y la credibilidad de la información.
- Análisis de riesgos: puede apoyar la detección y catalogación de riesgos para las organizaciones.
- Reconocimiento de patrones, dentro del amplio conjunto de datos e información que estas aplicaciones manejan: el valor no estaría únicamente en el patrón, sino en la anomalía, es decir, aquello que se sale de lo habitual y puede contribuir a generar una señal débil o una alerta temprana.
- Análisis de inteligencia puede contribuir a la generación de hipótesis, la identificación de tendencias y la construcción de escenarios en seguridad: aunque la IA no puede sustituir la creatividad humana sí puede resultar un complemento interesante para pensar fuera de la caja.
- Estructuración de recomendaciones en cuestiones de seguridad: desde cómo defenderse de un ciberataque hasta qué medidas de seguridad adoptar previamente o durante un viaje. No sustituye de ninguna manera la labor de un analista de seguridad internacional, pero apoya algunas tareas.
- Analítica predictiva: puede facilitar ciertas predicciones, con sus probabilidades asociadas, en base a la ingente cantidad de datos en que se basa.
- Impulso de la ciberdefensa en estas áreas: Detección de phishing, pruebas de código, identificación de vulnerabilidades, generación decontraseñas seguras o simulación de conversaciones con actores adversarios, o incluso con potenciales objetivos, para poder anticipar sus acciones.
- Aprendizaje: las IA generativas pueden ser un primer punto para el aprendizaje sobre cuestiones vinculada a seguridad, sobre tecnologías, sobre riesgos. Especialmente serán de interés en la medida en que faciliten fuentes y estas sean cada vez más refinadas.