Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

Microsoft combate la desinformación y los deepfakes con nuevas herramientas

  • Endpoint

comprador smartphone

Microsoft Video Authenticator es una plataforma inteligente que puede analizar una foto o un vídeo para proporcionar un porcentaje de probabilidad, o una calificación de confianza frente a manipulaciones. Microsoft también ha anunciado una tecnología capaz de detectar contenido manipulado.

Recomendados: 

Inteligencia Artificial, ¿cómo lo aplico en mi empresa? Webinar

España Digital 2025 Leer 

La desinformación online continúa creciendo con el objetivo de difamar a personalidades, dirigir la opinión pública o polarizar los debates. Un reciente estudio realizado en Princeton con la colaboración de Microsoft catalogó 96 campañas de influencia extranjera dirigidas a 30 países entre 2013 y 2019, el 93% de las cuales incluyeron la creación de contenido original, el 86% amplificaron contenido preexistente, y el 74% distorsionaron hechos verificables de manera objetiva. Para luchar contra estas situaciones, Microsoft ha anunciado nuevas tecnologías encaminadas a combatir la desinformación y diferenciar los contenidos originales de los deepfakes.

Los deepfakes son fotos, vídeos o archivos de audio manipulados por inteligencia artificial (IA) con mucha precisión, de forma que es difícil detectar su alteración. De este modo, se pueden iniciar campañas con material audiovisual falseado de personajes públicos, colocándolos en situaciones irreales o realizando declaraciones que nunca han hecho. Para combartir esta amenaza, Microsoft ha desarrollado Video Authenticator, una plataforma inteligente que puede analizar una foto o un vídeo para proporcionar un porcentaje de probabilidad, o una calificación de confianza frente a manipulaciones. Video Authenticator ha sido creado con ayuda de la base de datos pública de Face Forensic++ y probado en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y evaluación de tecnologías de detección de deepfakes.

La compañía también ha anunciado una nueva tecnología desarrollada por Microsoft Research y Microsoft Azure, en asociación con el Programa Defending Democracy, que puede detectar contenido manipulado y garantizar a los usuarios que los contenidos que visualizan son auténticos. Esta tecnología tiene dos componentes: una herramienta integrada en Microsoft Azure, que permite a los productores de contenido agregar hashes (que identifican los archivos de forma inequívoca) y certificados a sus piezas, dejando una huella de confianza allá donde se alojen los ficheros online; y un lector, que puede utilizarse como una extensión de navegador o en otras formas alternativas, que verifica la huella incluida en los archivos para que los consumidores de contenido, con alto grado de precisión, puedan saber que el contenido es auténtico y que no ha sido modificado, así como proporcionar detalles sobre quién lo produjo.

En los últimos meses, Microsoft también ha ampliado de forma considerable su implementación de NewsGuard, que permite a las personas tener más detalles sobre las diferentes fuentes de noticias online antes de consumir sus contenidos. NewsGuard cuenta con la colaboración de un equipo de periodistas experimentados que califican las webs de noticias basándose en nueve criterios de integridad periodística, que utilizan para crear tanto una etiqueta cualitativa como una clasificación “rojo/verde” para cada sitio web de noticias evaluado.

Los usuarios pueden acceder al servicio de NewsGuard a través de la descarga de una sencilla extensión de navegador, que está disponible para todos los navegadores estándar y es gratuita para Microsoft Edge.

Suscríbete a nuestro Newsletter

* Todos los campos son requeridos