Collaterallogo
1 de junio de 2021

Hola, [subscriber:firstname | default:reader]

Tenemos la percepción de que la inteligencia artificial no es una buena aliada de la verdad. Un estudio de la Universidad de Georgetown (EEUU) confirma esa percepción.

Nos adentramos entusiasmados en un mundo en el que todo se puede inventar o manipular, incluso la geografía.

Máquinas de desinformación masiva

Captura de Pantalla 2021-06-01 a les 10.07.19
Los sistemas de generación de lenguaje natural como GPT-3 son más eficientes para desinformar que para generar textos veraces.

Esta es una de las conclusiones a la que ha llegado un equipo de investigadores del Center for Security and Emerging Technology (CSET) de la Universidad de Georgetown (EEUU) que acaba de publicar un trabajo titulado Verdad, mentiras y automatización en el que analiza cómo GPT-3 es altamente eficaz mediante seis maneras de desinformar: replicando mensajes, creando nuevas informaciones, manipulando textos veraces, buscando puntos débiles de la argumentación contraria, polarizando e incluso convenciendo a no convencidos.

Si las capacidades de los sistemas de procesamiento de lenguaje natural aumentan en la línea de lo que hoy están haciendo pueden convertirse en eficaces máquinas de desinformación masiva.

Saber +


Urge comprender el peligroso mundo del lenguaje artificial

Cientos de científicos de todo el mundo están trabajando juntos para comprender antes de que sea demasiado tarde una de las tecnologías emergentes más poderosas, el procesamiento de lenguaje natural . Karen Hao en Technology Review

La IA puede modificar el comportamiento ético de las personas

Un estudio publicado por investigadores de la Universidad de Ámsterdam, el Instituto Max Planck, la Escuela de Administración Otto Beisheim y la Universidad de Colonia ha analizado hasta qué punto los consejos generados por sistemas de IA pueden llevar a las personas a cruzar líneas morales. En una encuesta a gran escala que aprovechó el modelo de lenguaje GPT-2 de OpenAI, los investigadores encontraron que los consejos de la IA pueden "corromper" a las personas incluso cuando saben que la fuente de los consejos es un sistema automatizado. Venturebeat

La geografía también se puede inventar

Un profesor de la Universidad de Washington ha estado experimentando en el empleo de técnicas similares a los llamados deepfakes para alterar imágenes de satélite de varias ciudades como Pekín y Seattle. El resultado es altamente convincente. Las imágenes satelitales modificadas podrían difundirse en las redes sociales y diseminar información visual errónea aparentemente real y engañar a gobiernos y ciudadanos. Whasington.edu y Wired

Genialidades peligrosas

Este artículo, o uno parecido, podría haber sido escrito por una máquina. No es así. De momento.

Así funciona el sistema GPT-3 de creación automática de textos.
Genialidades peligrosas

Ética digital

Captura de Pantalla 2021-06-01 a les 11.28.23

Sabemos lo que hiciste durante el confinamiento. Vídeo

Renunciamos a nuestra privacidad para luchar contra la Covid-19, ¿podemos recuperarla? Una película de 18 minutos producida por el diario Finantial Times recrea la escena de un interrogatorio que muestra cómo la lucha contra el virus ha puesto de manifiesto la tensión entre la necesidad de datos para evitar los contagios y el derecho a la privacidad y la justicia. VER

Las máquinas malinterpretan las emociones humanas

Los sistemas automatizados de detección de emociones se están implementando en ámbitos como el de la selección de personal. Aunque no hay pruebas convincentes de que las expresiones faciales revelen los sentimientos de una persona, las grandes empresas de tecnología quieren que creamos lo contrario. Artículo de Kate Crawford, autora de Atlas of AI, en The Atlantic
China prueba el reconocimiento de emociones en la población uigur. BBC

Denuncia contra Clearview AI, el mayor recopilador de rostros

Privacy International, el Centro Hermes para la Transparencia y los Derechos Humanos Digitales, Homo Digitalis y NOYB, el Centro Europeo de Derechos Digitales, han presentado una serie de denuncias contra Clearview AI. La empresa de reconocimiento facial afirma tener “la base de datos más grande con más de 3 mil millones de imágenes faciales”. Las denuncias se enviaron a los reguladores de protección de datos de Francia, Austria, Italia, Grecia y el Reino Unido. Privacy International

Más datos no mejoran la IA

Las personas no toman mejores decisiones cuando disponen de más datos, entonces, ¿por qué asumimos que la IA lo hará? Las decisiones no se toman sólo en función de la precisión de los datos sino que están fuertemente influidas por las normas y expectativas tanto de los usuarios como de las organizaciones que las toman. Onezero

El juego de los términos y condiciones

Nuevo mini juego onlíne que parodia las estrategias que utilizan los sitios web para obtener tus datos. El objetivo del juego de Términos y Condiciones es escapar sin entregar tus datos. Se inspira en darkpatterns.org, la web que identifica los sitios y aplicaciones que te obligan a hacer cosas que no pretendías. Termsandconditions.game

Leer +

arton3451-a50f2
Anna Wiener desvela la cara oscura de Silicon Valley –los falsos ideales, las interminables jornadas, el corporativismo alienante, la misoginia endémica–, y recorre la fina línea entre utopía y distopía en la que operan unos emporios tecnológicos que ponen en peligro nuestras sociedades: desde el inexorable control que las apps y las redes ejercen sobre nosotros, hasta la brutal desigualdad que ha desfigurado las señas de identidad de su epicentro, la ciudad de San Francisco. Libros del Asteroide

Reseña de María Jesús Espinosa de los Monteros en The Objective

Documentos


- The Case for Better Governance of Children’s Data: A Manifesto. Unicef

- The Unseen Teen.The Challenges of Building Healthy Tech for Young People. Data&Society

- AI and the future of work post Covid. HAI Stanford

La frase


Para engañar a la inteligencia artificial de selección de personal basta con poner un fondo de libros. Otra muestra de que la IA que vende análisis de personalidad/emociones es humo


Gemma Galdón en Twitter

linkedin twitter