El crecimiento de la IA en la sombra acentúa los riesgos potenciales para la seguridad
- Endpoint

Las plataformas genAI son la categoría de IA en la sombra que más rápido crece. La popularidad de su uso crea nuevos riesgos para la seguridad de los datos empresariales, por lo que se da mayor importancia a la prevención de la pérdida de datos y a la supervisión y concienciación continuas.
Netskope ha publicado un nuevo estudio que constata un aumento del 50% en el uso de la plataforma genAI entre los usuarios finales de las empresas durante los tres meses finalizados en mayo de 2025. Aunque se está produciendo un cambio hacia la habilitación segura de aplicaciones de IA generativa (genAI) como servicio (SaaS) y agentes de IA, el crecimiento de la IA en la sombra (aplicaciones de IA no autorizadas utilizadas por los empleados) sigue acentuando los riesgos potenciales para la seguridad, y se estima que más de la mitad de la adopción actual de aplicaciones es IA en la sombra.
Las plataformas genAI, que son herramientas fundamentales de infraestructura que permiten a las organizaciones crear aplicaciones y agentes de IA personalizados, son la categoría de IA en la sombra que más rápido crece, gracias a su sencillez y flexibilidad para los usuarios. En los tres meses que finalizaron en mayo de 2025, el número de usuarios de estas plataformas aumentó un 50%. En mayo, el 41% de las organizaciones ya utilizaba al menos una plataforma genAI. Aproximadamente el 29% de las organizaciones utilizan Microsoft Azure OpenAI, el 22% Amazon Bedrock y el 7,2% Google Vertex AI, respectivamente.
Estas plataformas agilizan la conexión directa de los almacenes de datos de las empresas con las aplicaciones de IA. No obstante, la popularidad de su uso crea nuevos riesgos para la seguridad de los datos empresariales, por lo que se da mayor importancia a la prevención de la pérdida de datos (DLP) y a la supervisión y concienciación continuas.
“El rápido crecimiento de la IA en la sombra hace recaer sobre las organizaciones la responsabilidad de identificar quién está desarrollando nuevas aplicaciones y agentes de IA con plataformas genAI y dónde las están creando y desplegando”, afirma Ray Canzanese, director de Netskope Threat Labs. “Los equipos de seguridad no quieren obstaculizar la voluntad innovadora de los empleados, pero el uso de la IA no va a dejar de aumentar. Para salvaguardar esta situación, las organizaciones deben revisar sus controles de aplicaciones de IA y hacer que sus políticas de DLP incluyan elementos de formación de usuarios en tiempo real”.