Vídeos falsos, más confusión entre la confusión

0 Shares
0
0

Los deepfakes pueden manipular la red como ninguna herramienta lo había hecho hasta ahora o quedarse en un divertimento

Los efectos visuales generados por ordenador son práctica habitual en el cine que se produce en todo el mundo, de cualquier presupuesto y género. Los costes de producción de imagen sintética han disminuido a medida que se han expandido herramientas cada vez más sofisticadas a precios más asequibles.

Por el momento, la mezcla de realidad física y realidad inventada se ha limitado al campo de la ficción: dibujos animados mezclados con personajes reales, paisajes fantásticos recreados con todo detalle, tormentas fenomenales, avatares casi humanos… Pero ahora las fronteras entre realidad y ficción parecen desvanecerse también en el ámbito de la creación visual.

A finales de 2017 se desató la alarma en la red a raíz de la popularización de una serie videos falsos (deepfakes) que implicaban a personajes conocidos de la vida real.

Apenas unos pocos vídeos demostraron que la simulación podía traspasar el límite de la ficción en la que había estado recluida durante decenas de años e infiltrarse en el terreno de la realidad.

Hace unos meses, el cineasta Jordan Peele incrustó sus labios en el rostro de Barack Obama y, utilizando un video real, modificó su discurso: “podría decir cosas como que el Presidente Trump es un completo idiota”, decía “Obama” moviendo los labios de Peele perfectamente sincronizados con la imagen real. Para la producción se invirtieron 56 horas de postproducción y una herramienta gratuita llamada Fakeapp.

 

También las actrices Daisy Ridley (Star Wars), Jessica Alba (Sin City) y Emma Watson (Harry Potter)  “protagonizaron” supuestas escenas eróticas que evidentemente se hicieron virales enseguida .

(Más ejemplos en thedeepfakesociety.com)

La tecnología para engañar a nuestros ojos y oídos avanza rápidamente.

La aceleración tecnológica está llegando a las herramientas low cost de generación de imagen y audio sintéticos con la misma fuerza que invade otros sectores.

En Alemania, el Niessnerlab está trabajando en una aplicación llamada Face2Face, que permite el intercambio de rostro y de voz. El gigante de software Adobe está creando un “Photoshop para audio” para hacer fácil editar y manipular lo que alguien ha dicho, como lo hace tambièn una startup de Montreal llamada Lyrebird. O el software de código abierto Open Face Swap.

A principios de este año, la compañia escocesa CereProc utilizó esta técnica para incorporar la voz sintética de John F. Kennedy al discurso que debía pronunciar el día de su asesinato en 1963.  En 2017, Baidu, una de las grandes empresas de tecnología de China, publicó detalles de un sistema de clonación de voz llamado Deep Voice que funciona con tan solo tres segundos de datos de entrenamiento. Otras empresas de tecnología, incluida Google DeepMind, están haciendo un trabajo similar.

Una de las tendencias en inteligencia artificial consiste en hacer que las redes neuronales compitan entre sí para producir falsificaciones aún más realistas. Utilizan las llamadas “generative adversarial network, (GAN), redes neuronales profundas entrenadas para competir entre ellas y que pueden aplicarse, entre otros campos, a la identificación y producción de imágenes falsas sorprendentemente realistas.

Deep Fakes: Real Consequences Reportaje de Coldfusion TV

Ante este panorama, han saltado algunas alarmas.

El Pentágono norteamericano ya ha manifestado que considera el potencial del audio y video falsos lo suficientemente peligroso como para invertir tiempo y recursos en su detección. Su Agencia de Proyectos de Investigación Avanzada de Defensa ha puesto en marcha un proyecto de “análisis forense” de los medios cuyo objetivo es verificar automáticamente la autenticidad de imágenes, video y audio.

En una entrevista a la revista NPR, David Doermann, director del proyecto, imaginaba un escenario apocalíptico: un collage de audio, video y fotos falsas que se unen en una campaña de desinformación masiva, y crean la impresión de un gran evento que nunca ocurrió. “Eso podría provocar disturbios políticos o que algunas naciones actúen de acuerdo con mala información“, decía Doermann.

Hos por hoy, una imagen fotográfica o un testimonio videográfico suponen una evidencia que nadie cuestiona.

Ian Goodfellow, científico de Google, decía en la Technology Review del MIT que “históricamente, ha sido un golpe de suerte que podamos confiar en los videos como evidencia de que algo realmente sucedió“.

Según Franklin Foer, autor del libro Un mundo sin ideas, “veneramos el tipo de imágenes en bruto ejemplificadas por la película casera de 8 mm del asesinato de John F. Kennedy que el vendedor de ropa de Dallas capturó por casualidad. El video sin editar ha adquirido una gran autoridad en nuestra cultura. Esto se debe a que el público ha desarrollado un cinismo cegador e irracional hacia los informes y otros materiales que los medios han utilizado, una reacción exagerada a un siglo de publicidad, propaganda y noticias de televisión hiperbólicas. El comportamiento escandaloso agita la indignación masiva de manera más confiable cuando es grabada en vídeo. En otras palabras, el vídeo manipulado destruirá la fe en nuestro lazo más fuerte con la idea de la realidad común”

Los problemas son obvios, las soluciones, no

Jack Clark, director de comunicaciones de OpenAi, una entidad sin ánimo de lucro que analiza el impacto de la Inteligencia Artificial, comentaba que con la proliferación de imágenes y audios falsos “vas a tener problemas para confiar en la gente por teléfono, vas a tener problemas para confiar en el vídeo”.

Peter Eckersley, jefe científico de la Electronic Frontier Foundation ha calificado los deepfakes como la primera “oleada en que los videos falsificados serán utilizados con fines políticos. Es hora de empezar a descubrir cómo  defender la democracia contra esos riesgos. Las implicaciones maliciosas son absolutamente aterradoras, dijo. “Puedes poner a cualquier político haciendo cualquier cosa en cualquier lugar. Incluso siendo falso, un vídeo puede arruinar a alguien. La mayoría de las personas no leen informes o hacen su propia investigación. Simplemente toman el vídeo al pie de la letra. Los problemas son obvios. Las soluciones, no“.

Habrá que ver si todos estos temores se confirman. Podría ocurrir lo mismo que ha sucedido con Photoshop y otras herramientas gráficas. Las posibilidades de manipulación que ofrecen son ingentes pero su uso se centra mayoritariamente en tareas profesionales totalmente legítimas y son escasas las manipulaciones relevantes. Habrá que esperar si con la manipulación de vídeo ocurre lo mismo y su ámbito queda circunscrito al freekismo propio de la red o afecta seriamente las bases de confianza y credibilidad en las que se fundamenta la sociedad occidental.

En ese caso, si cada vez se hace más difícil distinguir la falsedad de la realidad, también será más fácil cuestionar la autenticidad de cualquier cosa.

Collatarel Bits
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *