Los deepfakes aumentan a un ritmo del 900%: cómo enfrentar este desafío de seguridad

  • Actualidad

Deepfake

El rápido desarrollo de la inteligencia artificial trae beneficios evidentes, pero también genera importantes amenazas, como los deepfakes. Estos crecen, según el Foro Económico Mundial, a un ritmo anual del 900%, y pueden emplearse para realizar fraudes o manipular. Hablamos con David Marcos, Data Analytics Business Manager de Innovery, sobre cómo pueden protegerse las organizaciones de esta amenaza.

A día de hoy, los deepfakes aumentan anualmente a un ritmo del 900%, que resulta espectacular, pero tmaibén es cierto no alcanzan los niveles de otros ataques, como el ransomware, que representa un importante para las empresas. Sin embargo, los especialistas se han puesto a trabajar inmediatamente para poner freno a esta amenaza porque va a ser un nuevo "campo de batalla" si tenemos en cuenta que prácticamente el 90% del contenido online se generará artificialmente en 2026. En este sentido, como explica David Marcos Torres, es una tecnología que, al mismo tiempo que las organizaciones la investigan para su aplicación en sus negocios, también lo hacen los atacantes.

Hay que tener en cuenta que los deepfakes, que pueden ser de audio, imagen o vídeo, pueden ser "el paso previo a otros ataques sofisticados", según este experto, como fraudes, robos de identidad, manipulaciones comerciales, delitos de difamación de empleados o engaños a través de videollamadas. Su impacto afecta principalmente a la reputación de marca, pero también es financiero. Baste recordar que ya en 2021 un grupo de ciberdelincuentes robaron 35 millones de dólares a un banco de Emiratos Árabes usando un deepfake de voz.

En Innovery sostienen que las empresas tienen que prepararse ya enfrentar los desafíos que los deepfakes pueden provocar, y empezar a tomar medidas para integrar esta nueva amenaza en una estrategia de seguridad integral porque, además, a medida que se desarrolla la tecnología, "la complejidad de generar deepfakes se irá reduciendo", advierte Marcos.

Uno de las medidas que propone para protegerse de esta modalidad de amenaza es desarrollar inteligencia artificial diseñada para detectar deepfakes. Se trata de crear algoritmos avanzados que permiten su detección con alta precisión. "Pueden incluso analizar vídeos y audios, en busca de anomalías sutiles que indiquen una manipulación", señala.

Este tipo de iniciativas, en los que ya trabaja esta compañía, requieren que la herramienta se nutra de fuentes muy diversas lo que hace necesario mucha potencia de cálculo en cloud y, aparte de entrenar el modelo algorítmico, es crucial el proceso de limpieza, validación y normalización de fuentes. Según el Data Analytics Business Manager de Innovery, "para crear un Producto Mínimo Viable, se necesitan entre dos y cuatro meses" y, a partir de ahí, hay un trabajo de continuidad para seguir alimentando el modelo con nuevas fuentes o llevar a cabo un proyecto de integración con las que ya tiene la organización.

Otras recomendaciones
También recomienda la compañía avanzar en soluciones de ciberseguridad que integren la detección de deepfakes y autenticar los contenidos multimedia, a través de sistemas que permitan verificarlos, incluyendo tecnologías de marcas de agua digitales o blockchain para garantizar su integridad.

Como medidas efectivas, la compañía también destaca desarrollar desarrollar herramientas de evaluación de riesgos, capaces de ayudar a estimar el nivel de vulnerabilidad ante este tipo de ataques y ofrecer recomendaciones de seguridad, así como introducir análisis forense para, en caso de incidente relacionado con deepfakes, entender cómo se produjo el fraude y cómo protegerse de cara al futuro.

Finalmente, el último consejo es realizar simulaciones y entrenamiento, es decir, crear simulaciones de ataque, basados en deepfake, para capacitar a los trabajadores en su detección y respuesta.

 

R. Alonso