Cómo trabajar con IA sin arriesgar la privacidad de los datos
- Actualidad

Zscaler ofrece cinco recomendaciones básicas para poder adoptar la inteligencia artificial en el entorno corporativo teniendo en cuenta la privacidad desde el diseño, en un momento en que las transacciones de IA y Machine se han incrementado casi un 600%.
Según el “Informe sobre seguridad de la IA de ThreatLabz 2024” realizado por Zscaler, entre abril de 2023 y enero de 2024, las transacciones de inteligencia artificial y Machine Learning se incrementaron en un 595% a nivel global. En Europa, España ocupa el sexto lugar en su adopción, con un 5,3%, en un ranking que lidera el Reino Unido, con el 20%.
En este escenario, es muy importante que el trabajo con la IA se realice en un entorno que no ponga en riesgo la privacidad de los datos. La compañía da las cinco claves para desarrollarla en un entorno seguro. La primera de ellas es establecer unas directrices claras para implementar las políticas de protección de datos, apoyadas en soluciones de seguridad y monitorización robustas.
También hay que evaluar de forma específica la privacidad y la seguridad de las aplicaciones de inteligencia artificial, de modo que las empresas puedan “garantizar que la información no pública y la propiedad intelectual no se expongan a riesgos”. Para ello se debe monitorizar y analizar de forma constante el uso de la IA, en particular el tráfico y las interacciones con las herramientas de IA.
Zscaler recomienda también trabajar en la calidad de los datos para asegurar en lo posible que las aplicaciones de IA generen datos erróneos. Por último, la compañía recuerda la necesidad de prepararse para las ciberamenazas que se basan en la IA, como las campañas de phishing más convincentes o el desarrollo de malware más sofisticado.
Carlos Muñoz, System Engineer Manager de Zscaler, explica que, “con la IA en constante evolución, la forma en que la operan las empresas y usuarios es esencial. Para ello, deben adoptar medidas de seguridad sólidas y fiables que les ayuden a proteger los datos sensibles. Además, deben ser proactivas al establecer políticas y controles que permitan el uso seguro de la IA, sin comprometer la integridad y la privacidad de la información”.