Los profesionales de seguridad preocupados por el malware impulsado por IA, pero solo un tercio la usa para detectar amenazas
- Actualidad
El continuo auge de la IA se ha convertido en un arma de doble filo, por lo que los profesionales de la ciberseguridad se están preparando para la afluencia de nuevas amenazas cibernéticas habilitadas por inteligencia artificial, a pesar de que esta tecnología también se utilice para reforzar las defensas, algo que solo aprovecha a un tercio de los responsables.
Según el informe Panorama de Amenazas a la Seguridad de la Identidad de 2023 de CyberArk, cerca del 33% de los equipos de ciberseguridad en España están haciendo uso de la inteligencia artificial para la detección y prevención de infracciones. Además, la IA generativa ya se está utilizando para identificar más rápidamente anomalías de comportamiento y mejorar la resiliencia cibernética, lo que brinda a los equipos más tiempo para mejorar sus capacidades frente a las amenazas o evolucionar las defensas para combatir ciberataques cada vez más innovadores.
Pero las herramientas de IA generativa también están abriendo la puerta a nuevas vulnerabilidades de seguridad, lo que preocupa a los ciberprofesionales. La investigación de CyberArk indica que el 53% de esos profesionales en España considera que los empleados están utilizando herramientas avanzadas con IA, pero no habilitadas, para ayudarles en su trabajo diario, lo cual causa un mayor riesgo. Y que estas ciberamenazas habilitadas por IA afectarán al 99% de las organizaciones españolas en 2023. Por otro lado, la seguridad de los chatbots también es una preocupación importante. Así, para el 63% de los encuestados de nuestro país la principal preocupación es que las tecnologías generativas brindarán a los ciberatacantes los medios para explotar vulnerabilidades e inyectar malware, hacerse pasar por empleados a través de deepfakes y realizar campañas de phishing.
Tal y como ha declarado David Higgins, director técnico en EMEA de CyberArk, “es imprescindible establecer directrices específicas para la IA, publicar políticas de uso y actualizar los planes de formación en ciberseguridad de los empleados. Es necesaria la debida diligencia antes de introducir cualquier herramienta basada en IA, ya que es la forma más eficaz de mitigar el riesgo y reducir las vulnerabilidades. Sin los controles de seguridad de identidad adecuados y las defensas de malware, va a ser muy difícil contener las innovadoras amenazas a gran escala que pueden comprometer las credenciales en el camino para acceder a datos y activos confidenciales”.