Más de un tercio de los datos corporativos que llegan a la IA generativa son confidenciales
- Actualidad

Según una investigación llevada a cabo por Netskope, las empresas no están haciendo bien sus deberes con respecto a los datos que están proporcionando a la inteligencia artificial generativa. El uso de este tipo de IA, además, se ha disparado hasta triplicarse en solo 12 meses.
Recomendados.... Identidades digitales: centro de la estrategia empresarial. Observatorio ITDS
Combatir amenazas desconocidas con tecnologías Cisco. Acceder
|
Netskope ha publicado los detalles de su estudio “Informe sobre la nube y las amenazas: AI Apps en la empresa”, que detalla el difícil equilibrio entre el uso de la inteligencia artificial generativa y las exigencias de seguridad y control de riesgos. Las conclusiones del estudio revelan que, mientras que el uso de la IA generativa se ha disparado, no hay suficiente control sobre el tipo de datos que se utilizan con ella.
El dato más preocupante es que más de una tercera parte de todos los datos que se introducen en la IA generativa son confidenciales y las empresas tienen la obligación legal de protegerlos. El 75% de las empresas bloquean al menos el uso de una aplicación de GenAI, aunque menos del 50% de las empresas aplica controles centrados en los datos para que no se utilice información confidencial en las solicitudes de entrada.
El informe también revela el elevado número de empresas que utiliza la IA: según la compañía, el 96% de las compañías ya la usan, el triple que hace 12 meses. Además, si el año pasado las empresas usaban una media de 3 aplicaciones de GenAI, ahora la media está en 10. Y si entonces un 1% utilizaba ya 14, ahora ese pequeño porcentaje que va en cabeza tiene una media de 80 apps.
Más del 80% de las empresas utiliza ChatGPT, aunque el mayor crecimiento corresponde a Microsoft Copilot, que ha llegado al 57% desde su lanzamiento en enero. Por otro lado, un 19% de las organizaciones ha vetado el uso de GitHub CoPilot. La concienciación de los empleados ha permitido mejorar las prácticas de seguridad. El 65% de las empresas realizan formación en tiempo real en el uso de GenAI y el 57% de los usuarios ha modificado sus hábitos con ese asesoramiento.
Para James Robinson, director de seguridad de la información de Netskope, “garantizar la seguridad de genAI requiere una mayor inversión y una mayor atención, ahora que su uso se generaliza en las empresas y no hay indicios de que vaya a frenarse pronto. Las empresas deben ser conscientes de que el uso de genAI puede exponer inadvertidamente información sensible, diseminar información falsa o incluso introducir contenido malicioso. Ello exige un planteamiento sólido de gestión de riesgos para proteger los datos, la reputación y la continuidad del negocio".