Los deepfakes entran en guerra

  • Actualidad
arma3_screenshot_01

La utilización de imágenes y vídeos falsos generados con inteligencia artificial se ha disparado un 900% y ya se ha empezado a distribuir como herramienta de desinformación en conflictos bélicos como la guerra de Rusia en Ucrania.

Los datos del Foro Económico Mundial sobre los ataques de deepfake muestran un incremento anual del 900%. Su uso más habitual es de la delincuencia común: se crean grabaciones manipuladas y se difunden en foros y páginas web de pornografía. A las víctimas se les exige dinero para retirar los vídeos de esos sites. Una práctica de la que ya advirtió en FBI el pasado verano.

Si este tipo de prácticas ya son delicadas (recordemos, en esa línea, los falsos desnudos de Almendralejo en España), mucho más peligroso puede ser su uso en un contexto de conflicto bélico. Security&IT señala la guerra de Rusia en Ucrania como el primer conflicto militar en el que se utiliza un deepfake como arma. En este caso, unos ciberdelincuentes rusos difundieron un vídeo falso del presidente ucraniano, Volodymyr Zelensky, ordenando la rendición de sus tropas ante las fuerzas rusas.

La compañía indica también el conflicto entre Israel y Hamás como un ejemplo de cómo la inteligencia artificial se está utilizando para generar de forma masiva noticias falsas. Menciona el caso de un vídeo en el que un soldado de Hamás derriba un helicóptero israelí, que llegó a ser difundido por algunas televisiones y periódicos. Eran imágenes del videojuego Arma 3. Un fake a secas, pero capaz de trascender hasta medios que en principio se basan en información veraz.

Para Francisco Valencia, director general de Secure&IT, “los deepfakes se han convertido en una herramienta muy peligrosa en el contexto de las guerras, donde la desinformación puede tener consecuencias catastróficas, debido a las reacciones que puede provocar”. La inteligencia artificial hace difícil distinguir la falsedad de vídeos e imágenes, especialmente cuando hay emociones involucradas.

Secure&IT da cuatro pistas que pueden ayudar a discernir si un vídeo es falso. Los ojos de los protagonistas a menudo dan problemas a la IA y se puede notar en movimientos poco naturales, parpadeos irregulares o ausencia de parpadeo. También presenta problemas a veces la sincronización entre los movimientos labiales y el audio. Las diferencias en la iluminación y las sombras en el rostro pueden revelar que se trata de un deepfake. Y, quizá un poco más difícil de detectar a simple vista, la calidad de la piel, que puede mostrar inconsistencias alrededor de los bordes del rostro, el cabello y los hombros.