Microsoft lanza una herramienta para detectar fotos y vídeos manipulados

Internet nos ha traído la posibilidad de tener acceso inmediato a toda la información y el conocimiento del mundo. Podemos comunicarnos instantáneamente con personas en la otra punta del planeta. Pero también ha traído riesgos y problemas de difícil solución. Uno de ellos, tal vez el que más ruido ha hecho estos últimos años, son las mentiras en red, las imágenes manipuladas y su inmenso poder de difusión. Y Microsoft ha querido tomar cartas en el asunto.

La empresa que fundó Bill Gates acaba de lanzar una herramienta para identificar fotos y vídeos “deepfake”. Esto es, aquellas imágenes falsas que fueron creadas para engañar a la gente haciéndoles creer información falsas. Con la tecnología “deepfake” sería posible, por ejemplo, hacer un vídeo de Obama defendiendo el terrorismo islámico.

Las “deepfakes”, también llamados medios sintéticos, son entonces fotografías, vídeos o audios que se manipulan utilizando Inteligencia Artificial para enseñar o decir algo que no ha ocurrido en realidad.

Según los datos de Microsoft, entre 2013 y 2019 se registraron 96 campañas de deepfakes en redes sociales. Dichas campañas, de las que dice la empresa que fueron “orquestadas desde el extranjero”, tuvieron como objetivo a personas de treinta países.

Arruinar una reputación

Para combatir estas campañas de manipulación, el gigante tecnológico ha desarrollado su “Video Authenticator”. Esta herramienta permite analizar una foto o vídeo para detectar qué porcentaje de su contenido se ha manipulado. La aplicación es capaz de detectar detalles de la imagen que no son detectables por el ojo humano.

Las citadas campañas deepfake, ampliamente difundidas por redes sociales, persiguen generalmente difamar a personajes famosos, especialmente políticos. Su objetivo es persuadir al público de la maldad de ese personaje, generar ruido y rumores o polarizar el ambiente cuando hay elecciones o una gran crisis.

De esas 96 campañas detectadas por Microsoft, el 93% incluía material original y novedoso, el 86% se basaban en contenido ya existente y un 74% distorsiona hechos verificados.

Un vídeo falso puede poner a una persona diciendo cosas que nunca ha dicho o visitando lugares en los que nunca ha estado. Esto, es evidente, puede contribuir a dañar reputaciones irremediablemente e incluso determinar el resultado de unas elecciones.

Para enfrentar esta amenaza, Microsoft ha lanzado también un test online que busca dar herramientas a los usuarios para detectar los deepfake. Forma parte de la campaña Spot the Deep Fake, orientada a contrarrestar la oleada de bulos en Internet y las redes sociales.

Difícil detección

Algunos investigadores han creado sus propios vídeos deepfake para demostrar la gravedad de la amenaza que suponen estos contenidos. El célebre Massachusetts Institute of Technology, por ejemplo, produjo un vídeo en el que se veía a Richard Nixon, expresidente de Estados Unidos, asegurando que el lanzamiento del Apollo 11 había sido un desastre. También en las últimas elecciones generales en Reino Unido se hicieron vídeos deepfake en los que aparecían Boris Johnson y Jeremy Corbyn apoyándose mutuamente.

Lamentablemente, como señalan desde Microsoft, el hecho de que estos vídeos se editen con Inteligencia Artificial hace muy complicada su detección por parte de la tecnología convencional. No obstante, y mirando en el corto plazo, como por ejemplo las elecciones presidenciales estadounidenses de noviembre, esta herramienta puede ser útil para dejar fuera de circulación estos bulos.

Video Authenticator se creó utilizando una base de datos públicos, Face Forensic, y se probó recurriendo al archivo DeepFake Detection Challenge. “Creemos que estos métodos para crear imágenes falsas van a ser cada vez más sofisticados”, explican desde Microsoft, “por eso, debemos desarrollar métodos potentes para certificar la autenticidad de los contenidos que circulan por la red. Ahora mismo hay muy pocas herramientas para que los lectores estén seguros de lo que están viendo es verdadero y no ha sido alterado”.