Microsoft lanza herramienta inteligente de detección de fotos y videos manipulados
La nueva tecnología desarrollada por Microsoft es capaz de identificar si una imagen ha sido manipulada. Con este recurso se luchará contra la información falsa.
En un esfuerzo por combatir la desinformación que se propaga a través de Internet, Microsoft ha presentado una nueva tecnología inteligente diseñada para identificar si una fotografía o video ha sido alterado artificialmente.
“Un problema importante son los deepfakes, o medios sintéticos, que son fotos, videos o archivos de audio manipulados por inteligencia artificial (IA) de formas difíciles de detectar”, resaltó Tom Burt, vicepresidente corporativo de seguridad y confianza del cliente en Microsoft.
La herramienta se llama Video Authenticator y es capaz de analizar imágenes y videos para proporcionar un porcentaje de probabilidad o puntuación de confianza en tiempo real que determina si dicho elemento ha sido adulterado.
#Deepfakes no more. Behold, the Microsoft Video Authenticator, a tool that can analyze a still photo or video and provide a percentage chance that the media is artificially manipulated. (1/2) pic.twitter.com/IINud4lWmE
— Microsoft On the Issues (@MSFTIssues) September 1, 2020
En el caso de los archivos de video, este porcentaje se muestra en cada uno de los fotogramas a medida que se reproducen. “Funciona detectando el límite de fusión de los elementos deepfake y sutil desvanecimiento o escala de grises que pueden no ser detectables por el ojo humano”, detalló Microsoft.
How does the Video Authenticator tool work?
It detects the blending boundary of a #deepfake and subtle fading or greyscale elements that might not be detectable by the human eye. 👁️ Learn more: https://t.co/ovruz23BoQ (2/2) pic.twitter.com/sLmcnrQAcr
— Microsoft On the Issues (@MSFTIssues) September 1, 2020
La compañía creó esta tecnología utilizando un conjunto de datos públicos de Face Forensic ++ y se puso a prueba en el DeepFake Detection Challenge Dataset, un repositorio con datos de video de intercambio de rostros para entrenar los modelos de detección de imágenes manipuladas.
La compañía creó esta tecnología utilizando un conjunto de datos públicos de Face Forensic ++ y se puso a prueba en el DeepFake Detection Challenge Dataset, un repositorio con datos de video de intercambio de rostros para entrenar los modelos de detección de imágenes manipuladas.
“Debemos buscar métodos más sólidos para mantener y certificar la autenticidad de los artículos de noticias y otros medios”, aseveró Microsoft. “En la actualidad, existen pocas herramientas que ayuden a asegurar a los lectores que los medios que ven en línea provienen de una fuente confiable y que no fueron alterados”.
Video Authenticator estará disponible inicialmente solo a través de la plataforma RD2020, en la cual se guiará a las organizaciones “a través de las limitaciones y consideraciones éticas inherentes a cualquier tecnología de detección de deepfakes”.