Microsoft potencia sus herramientas de seguridad en la era de la IA

  • Actualidad

Microsoft Seguridad

Durante la Conferencia RSA, Microsoft ha anunciado nuevas funcionalidades dentro de su oferta de seguridad para proteger los entornos de las organizaciones y ayudarles a implementar y gobernar la IA de forma segura.

Entre las novedades, destacan nuevas funciones de Microsoft Defender y Microsoft Purview para ayudar a las organizaciones a proteger y controlar las aplicaciones de IA generativa en el trabajo. Asimismo, Microsoft ofrece una nueva experiencia unificada para los analistas de seguridad al integrar Microsoft Copilot for Security en toda su cartera de productos de seguridad. 

Con Microsoft Defender for Cloud, la firma ofrece a sus clientes la posibilidad de reforzar sus estrategias de seguridad y proteger las aplicaciones de IA frente a las nuevas amenazas. Ahora los equipos de seguridad pueden identificar toda su infraestructura de inteligencia artificial gracias a las capacidades de gestión de seguridad en plataformas como Microsoft Azure OpenAI Service, Azure Machine Learning y Amazon Bedrock.

Integrado con los servicios de IA de Microsoft Azure, como Microsoft Azure AI Content Safety y Azure OpenAI, Microsoft Defender for Cloud supervisa las aplicaciones de IA en busca de actividad anómala, correlaciona los hallazgos y enriquece las alertas de seguridad con pruebas de soporte. Esa herramienta ofrece protección contra amenazas para cargas de trabajo de IA en tiempo de ejecución, proporcionando a los responsables de la seguridad nuevas capacidades de alerta sobre actividades maliciosas y amenazas activas, como ataques de jailbreak, robo de credenciales y fuga de datos confidenciales. Además, Microsot ofrece facilitar la respuesta a incidentes con la integración nativa de estas señales en Microsoft Defender XDR.

Por su parte, Microsoft Purview AI Hub ofrece información como datos confidenciales compartidos con aplicaciones de IA, el número total de usuarios que interactúan con este tipo de aplicaciones y el nivel de riesgo asociado a ello, entre muchas otras cosas. Para evitar el posible uso excesivo compartido de datos confidenciales, las nuevas conclusiones que proporciona ayudan a las organizaciones a identificar los archivos no etiquetados a los que Copilot hace referencia y a priorizar la mitigación de los riesgos de uso compartido excesivo.

Por otro lado, Microsoft también ha anunciado que el AI Hub ofrecerá información sobre el mal uso de la IA para ayudar a los clientes a descubrir posibles interacciones de esta tecnología que infrinjan las políticas empresariales y normativas en áreas como el odio y la discriminación, daño corporativo, o el blanqueo de dinero, por ejemplo.

Microsoft Purview incluye también nuevas evaluaciones de cumplimiento de la IA, con cuatro nuevas plantillas de evaluación de Compliance Manager para ayudarles a evaluar, implementar y reforzar el cumplimiento de las normativas y estándares de IA, como la Ley de IA de la UE, NIST AI RMF, ISO/IEC 23894:2023 e ISO/IEC 42001.