Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información

IBM quiere proteger la Inteligencia Artificial contra las amenazas adversas

  • Cloud

Inteligencia artificial_5

IBM Adversarial Robustness Toolbox es un kit de código abierto que tiene todo lo que los desarrolladores de Inteligencia Artificial necesitan para proteger las redes neuronales profundas.

También puedes leer...

Privacidad y protección de datos en aplicaciones móviles

Haciendo frente a la PSD2

Cambios de Paradigma en Seguridad

DMARC, protegiendo el email

Nuevo paradigma en la confianza

IBM ha lanzado Adversarial Robustness Toolbox, una solución que la compañía dice que es la primera de su clase y se presenta en forma de una biblioteca de códigos que incluye agentes de ataque, utilidades de defensa y herramientas de evaluación comparativa que permiten a los desarrolladores integrar modelos de resistencia contra adversarial attacks. La compañía dice que es el primero de su tipo.

Dice IBM a través de un post que en los últimos años se ha detectado un gran avance en el desarrollo de Inteligencia Artificial y explica que los sistemas modernos de IA se basan en redes neuronales profundas (DNN - deep learning neural networks), modelos complejos de aprendizaje automático que tienen cierta similitud con las neuronas interconectadas en el cerebro humano. Los DNN son capaces de gestionar entradas de alta dimensión (por ejemplo, millones de píxeles en imágenes de alta resolución), pero al mismo tiempo que son muy precisos, son vulnerables a los llamados ejemplos adversas, como pueda ser una imagen modificada deliberadamente para producir una respuesta deseada por un DNN. El objetivo de estos ejemplos adversos podría llevar a una predicción incorrecta que beneficie a un ciberatacante.

Los ataques adversos representan una amenaza real para el despliegue de sistemas de inteligencia artificial en aplicaciones críticas de seguridad. Teniendo todo esto en cuenta IBM lanzar Adversarial Robustness Toolbox, compuesta por una librería de software de código abierto, para apoyar tanto a los investigadores como a los desarrolladores en la defensa de los ataques adversos contra DNN y hacer que los sistemas de inteligencia artificial sean más seguros.

La librería está escrita en Python, el lenguaje de programación más utilizado para desarrollar, probar y desplegar DNN, e incluye algoritmos de última generación para crear ejemplos adversos, así como métodos para defender DNN contra ellos. El enfoque para defender los DNN es triple, explica la compañía en el post: En primer lugar, se puede evaluar la solidez de un DNN dado; en segundo lugar, un DNN dado puede ser "reforzado" para hacerlo más robusto contra las entradas contradictorias; finalmente, los métodos de detección de tiempo de ejecución se pueden aplicar para marcar cualquier entrada con la que un adversario pueda haber alterado.

Suscríbete a nuestro Newsletter

* Todos los campos son requeridos