Los ataques relacionados con la IA generativa van en aumento

  • Endpoint
ataque ciber

A medida que se acelera la adopción, los ataques que aprovechan GenAI para phishing, deepfakes e ingeniería social se han convertido en la corriente principal, mientras que otras amenazas, como los ataques a la infraestructura de aplicaciones de GenAI, están surgiendo y ganando terreno, señalan desde Gartner.

El 29% de los líderes de ciberseguridad aseguran que sus organizaciones experimentaron un ataque a la infraestructura de aplicaciones empresariales de IA generativa (GenAI) en los últimos 12 meses, según una encuesta realizada por Gartner.

La encuesta encontró que el 62% de las organizaciones experimentaron un ataque deepfake que involucró ingeniería social o explotación de procesos automatizados, mientras que el 32% experimentó un ataque a aplicaciones de IA en los últimos 12 meses. Los asistentes de chatbot son vulnerables a una variedad de técnicas de indicaciones adversas, como los atacantes que generan indicaciones para manipular grandes modelos de lenguaje (LLM) o modelos multimodales para generar resultados sesgados o maliciosos.

Durante la Cumbre de Seguridad y Gestión de Riesgos de Gartner en Londres, Akif Khan, vicepresidente analista de Gartner, explicó que "a medida que se acelera la adopción, los ataques que aprovechan GenAI para phishing, deepfakes e ingeniería social se han convertido en la corriente principal, mientras que otras amenazas, como los ataques a la infraestructura de aplicaciones de GenAI y las manipulaciones basadas en avisos, están surgiendo y ganando terreno".

Si bien el 67% de los líderes de ciberseguridad dijeron que los riesgos emergentes de GenAI exigen cambios significativos en los enfoques de ciberseguridad existentes, Gartner dijo que se justifica una estrategia más equilibrada. "En lugar de realizar cambios radicales o inversiones aisladas, las organizaciones deben fortalecer los controles básicos e implementar medidas específicas para cada nueva categoría de riesgo", señaló Khan.