Foto Edi Libedinsky en Unsplash

Lo que vemos importa

0 Shares
0
0

Algunas opiniones ponen en duda que los videos manipulados (deepfakes) vayan a producir un desastre informativo pero las evidencias confirman que no son inocuos

 

Hace ya unos años se extendió el temor a que los videos generados por inteligencia artificial que simulan la realidad (deepfakes), rudimentarios entonces, más convincentes ahora, conducirían a un desastre de la información.

En 2017, la revista tecnológica del MIT llegó a publicar que “la IA puede hacernos retroceder 100 años en nuestra manera de consumir noticias”. Franklin Foer (The Atlantic) vaticinó en 2018 que la producción de videos con IA podría suponer el “colapso de la realidad”. The New Yorker se hacía la siguiente pregunta: “En la era de la IA, ¿seguirá siendo válido ver para creer?”. 

Últimamente, algunos trabajos ponen en duda que los deepfakes vayan a suponer el apocalipsis informativo anunciado.

En un artículo del que se hace eco The New Yorker el filósofo Joshua Habgood-Coote considera que la visión catastrófica sobre los deepfakes parte de suponer que “las personas (siempre otras personas) son crédulas, propensas a ceder ante cualquier evidencia que parezca suficientemente real. Pero no es así como procesamos la información”. Habgood-Coote sostiene que, al evaluar la evidencia, rara vez confiamos sólo en lo que vemos. Tenemos, en general, tendencia a dudar de los que nos sorprende, reflexionamos,  preguntamos…

El riesgo no estaría tanto en la sofisticación que incorpora la inteligencia artificial para generar videos falsos hiperrealistas y clonar o simular voces sino en la capacidad de la tecnología para multiplicar la difusión de las manipulaciones de siempre.

 

 

Añade Daniel Immerwar en The New Yorker que “las falsificaciones más efectivas siempre han sido las más simples: las vacunas provocan autismo, Obama no es estadounidense, las elecciones norteamericanas fueron un robo, el cambio climático es un mito. Estas ficciones son casi enteramente verbales y han demostrado ser impermeables a la evidencia. Cuando se trata de “historias profundas”, como las llama el sociólogo Arlie Russell Hochschild, los hechos son irrelevantes. Los aceptamos porque afirman nuestras creencias fundamentales, no porque hayamos visto un vídeo convincente.

Por su parte, Ari Lightman, profesor de marketing y medios digitales en la Universidad Carnegie Mellon, discrepa de esa visión: “Hay tantas falsedades y exageraciones en los textos que difunden las redes sociales que la gente tiende a ser escéptica con lo que lee. En cambio, una imagen aporta algo de legitimidad en la mente del usuario y un vídeo crea más resonancia”.

 

Más allá de la política

Aunque la mentira busca siempre el camino más fácil para llegar a su destino y los deepfakes tienen todavía una cierta complejidad (cada vez menor), no podemos menospreciar sus efectos. La generación y manipulación de imágenes estáticas y de vídeos son motivo de preocupación real.

Pornografía. Los deepfakes pornográficos que involucran a personas reales son burdos y muchas veces fácilmente identificables pero el daño que provocan puede ser muy doloroso. Recordemos las imágenes falsas de decenas de menores de Almendralejo que circularon por las redes hace un par de meses. 

Periodismo. Una cantidad no despreciable de imágenes de las guerras en Ucrania han sido generadas por IA.

Geografía. Un estudio de la Universidad de Washington descubrió fotografías satelitales falsas que parecían genuinas.

Historia. En la plataforma de IA generativa Midjourney se pueden encontrar imágenes que ilustran eventos históricos que nunca existieron como “El infame incidente de la peste azul la década los setenta en la Unión Soviética, o la “supertormenta solar y apagón de julio de 2012 “en los EE.UU.

Salud. En septiembre, la Asociación Americana de Hospitales emitió una circular en la que instaba a sus asociados a estar atentos a los deepfakes en materia de salud. 

Ciencia. Un estudio publicado en agosto en la revista Nature alertaba del peligro de los deepfakes en la diseminación del conocimiento científico.

 

Ninguna de estas imágenes de la actriz Emma Stone es real. Fuente: Civit.ai

Diluir la realidad visible en un halo de sospecha, confundir las evidencias científicas, tergiversar el pasado, manipular la imagen pública de las personas… tiene consecuencias. Y si no las tiene porque las manipulaciones visuales aún son burdas e identificables, las tendrá cuando se depure la técnica y se sofistiquen los métodos para colocarlas en el imaginario colectivo. La cohesión social se basa en la confianza y por muchos antídotos contra la desinformación que vayamos generando tanta manipulación la acabará erosionando.

 

Michael Sandel: “El peligro es que distinguir la realidad deje de importarnos” 

Las opiniones que relativizan el efecto desinformativo de los deepfakes sostienen que, por sí mismos, rara vez nos alteran la percepción de la realidad. Los aceptamos en la medida que confirman nuestras convicciones, pero no las cambian.

Olvidan, sin embargo, que ésta es una sociedad profundamente visual, en la que nuestra comprensión del mundo depende de lo que vemos. Y es, además, tan compleja y cambiante que apenas tenemos lugar para las convicciones firmes. En este escenario, la manipulación visual se convierte en un arma determinante para acrecentar las sospechas, decantar las dudas o, en cualquier caso, difuminar la evidencia de la realidad y sembrar la confusión.

Releamos lo que apunta el filósofo Michael Sandel:

El mayor peligro es que la próxima generación de ciudadanos pierda interés por la línea que separa lo que es falso de lo que es real. (…) Este es el verdadero peligro, no solo que cada vez sea más difícil distinguir lo que es real de lo que es falso, sino que esa distinción deje de importarnos”.

De momento, es mejor seguir convencidos de que lo que vemos importa.

Joan Rosés

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *