La Shadow AI pone en riesgo los datos sanitarios

  • Actualidad
inteligencia_artificial

El último informe de Netskope Threat Labs señala que los empleados de sector sanitario comparten de forma regular datos sanitarios confidenciales tanto en aplicaciones genéricas de IA generativa como en sus cuentas personales de populares servicios en la nube.

El informe “Netskope Threat Labs Healthcare 2025”, basado en el uso anónimo de los datos recopilados por la plataforma Netskope One en los últimos doce meses, analiza el manejo de los datos sanitarios en el sector. Según la compañía, es habitual que los profesionales sanitarios envíen datos confidenciales a cuentas personales de servicios cloud y los utilicen en herramientas genéricas de inteligencia artificial generativa.

El 81% de todas las vulneraciones de las políticas de datos afectaron a datos sanitarios regulados por diferentes normativas, mientras que el restante 19% afectaron a contraseñas y claves, código fuente o propiedad intelectual. Las aplicaciones de IA generativa más utilizadas fueron ChatGPT y Google Gemini; y las cuentas personales a las que se subían datos fueron de Microsoft OneDrive y Google Drive.

Según el informe, más de dos de cada tres usuarios de IA generativa del sector envían datos confidenciales a sus cuentas personales de genAI, una Shadow AI que “dificulta la supervisión de la actividad relacionada con la IA generativa por parte de los equipos de seguridad y, sin las medidas de protección de datos adecuadas, limita su capacidad para detectar y prevenir fugas de datos”. Retos similares a los que detalló en una entrevista reciente Ana Gómez, de BBVA.

Netskope explica que el 88% de las organizaciones sanitarias utiliza aplicaciones de IA generativa. Lo que conlleva “riesgos adicionales de filtración de datos” por las aplicaciones que manejan información de los usuarios para el entrenamiento (presentes en el 96% de las entidades que utilizan genAI) o por las que incorporan funciones de IA genérica (presentes en el 98%).

Gianpietro Cutolo, investigador de amenazas en la nube de Netskope Threat Labs, afirma que “las aplicaciones de GenAI ofrecen soluciones innovadoras, pero también plantean nuevos vectores de riesgo para la seguridad de los datos, especialmente en entornos de alta presión y alto impacto como es el sector sanitario, en el que los trabajadores y los profesionales médicos deben actuar con rapidez y agilidad. Las entidades sanitarias deben encontrar el equilibrio entre las ventajas de la IA génica y la implementación de medidas de seguridad y protección de datos para minimizar esos riesgos”.