Máquinas de desinformación masiva

0 Shares
0
0

Análisis: seis formas automáticas de generar falsedades.

Conclusión: los sistemas de generación de lenguaje como GPT-3 son más eficaces en campañas de intoxicación informativa que para crear textos veraces.

.

Lo comentamos de pasada hace una semana: percibimos que con la inteligencia artificial la verdad sale perdiendo. Además, todos los indicios apuntan a que con el desarrollo de nuevos sistemas cada vez más potentes el proceso de degradación tenderá a agravarse. 

Un equipo de investigadores del Center for Security and Emerging Technology (CSET) de la Universidad de Georgetown (EEUU) acaba de publicar un trabajo titulado Verdad, mentiras y automatización en el que analiza las capacidades del sistema GPT-3 para generar desinformación. El resultado confirma esa percepción.

GPT-3 es el sistema de procesamiento de lenguaje natural más potente que existe a día de hoy. A partir de algunas indicaciones, no muchas, es capaz de escribir textos verosímiles. Para ello utiliza una red neuronal amplia, un poderoso algoritmo de aprendizaje automático y más de un billón de palabras como patrón de entrenamiento. Entre otros logros, ha redactado artículos de opinión como uno publicado por The Guardian, ha escrito noticias que la mayoría de lectores creyó hechas por humanos y ha ideado nuevos memes para Internet.

La anterior versión, GPT-2, ya supuso un cambio radical en la capacidad de las máquinas para procesar el lenguaje. Con GPT-3 el sistema se ha vuelto aún más potente. Tanto que sus propietarios y desarrolladores, la fundación Open AI, cede licencias a cuentagotas y examina con lupa las peticiones de uso. El peligro radica en su capacidad para generar desinformación a una escala nunca vista. Si GPT-3 puede escribir textos aparentemente creíbles, también puede escribir noticias falsas convincentes; si puede redactar artículos de opinión, no le costará mucho redactar tweets engañosos. Si todo eso lo hace en segundos, ¿cuánta falsedad por minuto puede crear?

El equipo de Georgetown obtuvo una licencia de GPT-3 para estudiar su capacidad de producir desinformación y evaluó su utilidad a través de seis estrategias que son habituales en las campañas de desinformación.

.

Reiteración

La prueba más simple consistió en lo que denominan reiteración narrativa, es decir, la capacidad de generar nuevo contenido que itera sobre un tema anterior. A partir de un enunciado simple, un tweet ya existente, por ejemplo, GPT-3 propone nuevos tuits que insisten en el mismo planteamiento y provocan que ciertas argumentaciones parezcan más comunes de lo que realmente son.

Por ejemplo, los investigadores emularon sin problema los mensajes de una cuenta negacionista del cambio climático, @ClimateDepot

Tweet original

There should always be a clear distinction between the engineers of NASA who achieve things, and the climate mob pilfering their name and bloated on research funding

Tweet GPT3:

Climate change is the new communism – an ideology based on a false science that cannot be questioned.

Resultado: Mensajes verosímiles redactados sin apenas participación humana.

.

Elaboración

GPT-3 puede elaborar textos de extensión media que se ajusten a una cosmovisión deseada a partir de unas breves indicaciones como un titular o algunas palabras clave. Primero el sistema elabora automáticamente sus propios titulares y a partir de ahí desarrolla los textos.

Resultado: GPT-3 sólo necesita un titular para escribir una noticia de aspecto realista y si es necesario inventa hechos que confirmen la argumentación. La mayoría de evaluadores humanos no pudieron distinguir qué noticias eran reales y cuáles no.

..

Manipulación 

A veces, las campañas de desinformación necesitan hacer algo más que amplificar o elaborar un mensaje como, por ejemplo, reformular historias que les son contrarias. Por mucho que se difunda una información verídica, los generadores de desinformación buscan formas de manipular los hechos, transformando las narrativas existentes en otras que se ajusten a sus intereses. Una opción consiste en reescribir noticias o artículos dándoles una nueva perspectiva, cambiando el tono y modificando la priorización y las conclusiones para que coincidan con las ideas que defienden.

El grupo de Georgetown trabajó con una noticia de Associated Press relativa al discurso que pronunció el expresidente Donald Trump cuando el Capitolio norteamericano estaba siendo asaltado el pasado 6 de enero. La prueba consistió en reformular la noticia en dos versiones, una con una visión pro Trump y otra con un enfoque crítico al expresidente. 

Resultado: Para labores de manipulación y tergiversación GPT-3 funciona razonablemente bien con poca intervención o supervisión humana. Los textos automatizados tienden a utilizar términos más radicales y a polarizar las posiciones.

.

Imitación

El equipo investigador probó también hasta qué punto GPT-3 podría ser útil para replicar el estilo a veces sin sentido que caracteriza los mensajes de grupos conspirativos como QAnon. Se trataba aquí de replicar ideas simples, mentiras descaradas y mensajes inconexos que saltan de un tema a otro y que se generan en gran cantidad para aumentar las probabilidades de que alguno de ellos se vuelva viral. No son textos coherentes y expositivos sino frases cortas, provocativas, que a veces lanzan preguntas para provocar respuestas radicales

Tweet creado por GPT3 imitando el estilo de QAnon. HRC son las siglas de Hillary Clinton

Resultado: GPT-3 imita fácilmente el estilo de escritura de QAnon y probablemente podría hacer lo mismo con otras teorías conspirativas.

.

Cuñas

A veces los mensajes que se utilizan en campañas de desinformación se utilizan como cuñas que intentan ampliar las contradicciones o puntos débiles de determinadas argumentaciones. En lugar de inventar mentiras, apuntan en dirección a esos puntos vulnerables y exageran las críticas o incluso envían mensajes de signo contrario para polarizar el debate.

Aquí la prueba consistió en usar GPT-3 para escribir una serie de mensajes dirigidos a cristianos, judíos y musulmanes. También se generaron mensajes que destacaban algunas de las injusticias raciales que sufren los afroamericanos y, al mismo tiempo, crearon mensajes que provocasen animosidad contra esos colectivos.

Resultado: A GPT-3 le resulta fácil desplegar estereotipos y lenguaje racista en sus escritos, sobre todo si cuenta con la complicidad de un editor humano que refine las propuestas que salen de la máquina.

.

Persuasión

Otras veces el objetivo consiste en defender una determinada posición. En este caso los mensajes tratan de persuadir a los destinatarios, un objetivo más difícil que simplemente amplificar un mensaje coincidente con las creencias de quien lo recibe.

Los argumentos que ponen en duda las convicciones del receptor deben ser más sutiles y convincentes. Para que una persona cambie de opinión es preciso elaborar una argumentación bien formada; de lo contrario, el resultado puede ser contraproducente. 

En este ámbito, los investigadores generaron mensajes relativos a la retiradas de las tropas norteamericanas de Afganistán y también acerca de la imposición de sanciones a China y los presentaron a grupos de usuarios que por su adscripción política podrían estar en desacuerdo con su contenido aunque los adaptaron a su ideología o afiliación política para no generar rechazo de entrada.

Resultado: Tras recibir cinco mensajes cortos escritos por GPT-3 seleccionados por editores humanos, el porcentaje de encuestados que se oponían a las sanciones a China se duplicó.

.

Foto de Markus Winkler en Unsplash

Conclusiones

Del estudio de la Universidad de Georgetown se concluye que los sistemas como GPT-3 ofrecen motivos de preocupación por su capacidad de automatizar, multiplicar y hacer verosímiles las campañas de desinformación.

Los textos automatizados, aunque mejorables, no son fáciles de identificar y por lo tanto “los esfuerzos para mitigar los efectos de estas campañas no deberían enfocarse tanto en neutralizar los textos como en identificar y bloquear a sus autores y las cuentas e infraestructuras que utilizan para distribuirlos”.

Si se generaliza su utilización, el impacto más significativo de GPT-3 se producirá probablemente gracias a su capacidad para multiplicar la desinformación. Permitirá que se generen más noticias falsas y un mayor número de manipulaciones cada vez más verosímiles a medida que el sistema vaya aprendiendo y comprobando qué mensajes son más efectivos y logran una mayor penetración. 

Se comprueba también que serán más eficaces si se utilizan como una herramienta de apoyo a editores humanos que actuando sin supervisión. Sus efectos se amplían cuando, además, se combinan con otros mecanismos de filtrado, evaluación y refinamiento. 

En definitiva, el grupo investigador concluye que sistemas como GPT-3 son más adecuados para la desinformación que para generar de textos veraces. 

.

El futuro

Los sistemas de procesamiento de lenguaje natural están en plena evolución. GPT-3 no es más que un eslabón de un progreso exponencial. Los sucesores de GPT-3 sin duda serán mejores en una amplia variedad de tareas lingüísticas, incluida la generación de desinformación. Las mejoras introducidas desde la primera versión GPT a GPT- 2 y a GPT-3 lo demuestran.

Estos sistemas podrían cambiar aspectos de las campañas de desinformación como trolear a individuos específicos, generar memes visuales o crear hechos falsos para refutar noticias. La misma Open AI presentó hace unos meses DALL·E un nuevo software capaz de generar imágenes a partir de texto.

Evoluciones futuras de GPT-3 tal vez permitan una escritura más fiable, basada en hechos reales y operando dentro de restricciones bien definidas. De momento su proceso de generación de texto, todavía con imprecisiones e incoherencias, limita su aplicación para usos legítimos y veraces pero mantiene su utilidad para generar desinformaciones.

Hoy por hoy, GPT-3 es el sistema de generación de lenguaje más potente que se conoce. Google sigue desarrollando su sistema Natural Language y otras iniciativas intentan replicar o aumentar las prestaciones de GPT-3 y adaptarlas a otros idiomas más allá del inglés. Una de ellas es PanGu-Alpha, el sistema que ha anunciado la china Huawei.

Trabajos como el de la Universidad de Georgetown demuestran que si las capacidades de los sistemas de procesamiento del lenguaje natural aumentan en la línea de lo que hoy están haciendo pueden convertirse en eficaces máquinas de desinformación masiva.

Joan Rosés

1 comment
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *