CyberArk FuzzyAI permite afrontar las vulnerabilidades de la IA
- Actualidad
La herramienta de código abierto que ha lanzado la compañía propone un enfoque sistemático para poner a prueba los modelos de inteligencia artificial, identificando los puntos débiles de los sistemas de seguridad ante los desafíos que plantea la IA generativa.
CyberArk ha anunciado el lanzamiento de FuzzyAI, una herramienta de código abierto con la que la compañía intenta hacer más segura la adopción de la inteligencia artificial generativa. La solución sirve para identificar y corregir las vulnerabilidades presentes en los modelos de IA, ya sean internos o estén alojados en la nube, entre los que menciona “la elusión de barreras y la generación de resultados dañinos”.
El ”fuzzer”, herramienta que detecta defectos y debilidades de software, en el que se basa la aplicación puede identificar vulnerabilidades con más de diez técnicas de ataque diferentes, como eludir los filtros éticos, exponer las indicaciones ocultas que pueda haber en el sistema, la fuga de información o la inyección de información, entre otros.
Las tres características que destaca la compañía de su solución son el “fuzzing exhaustivo”, que utiliza diferentes técnicas para sondear los modelos de IA, el marco extensible que ofrece, de modo que las empresas pueden añadir sus propios métodos de ataque a las pruebas, y el respaldo de una amplia comunidad, que permite estar al día de los avances que haya.
Peretz Regev, director de Producto de CyberArk, considera que “el lanzamiento de FuzzyAI subraya el compromiso de CyberArk con la seguridad de la IA y ayuda a las organizaciones a dar un importante paso adelante en la resolución de los problemas de seguridad inherentes al cambiante panorama del uso de modelos de inteligencia artificial. Desarrollado por CyberArk Labs, FuzzyAI ha demostrado la capacidad de hacer jailbreak a todos los modelos de IA probados”.