Collaterallogo
9 de diciembre de 2021

Hola, [subscriber:firstname | default:reader]

Se multiplican las tecnologías que dicen analizar las emociones humanas aunque se pone en duda su efectividad.
Spotify presume de su capacidad de extraer datos de los usuarios. A diferencia de otros, no lo oculta.

Emociones, lo que la inteligencia artificial nunca podrá aprender

mulyadi-ZnLprInKM7s-unsplash (1)
La duda: Sobre las emociones gravitan las decisiones de los seres humanos; nos condicionan e influyen. Para que una máquina reproduzca la conducta humana, habría que lograr que pudiera sentir lo que un humano siente al tomar una decisión. En los humanos las emociones hacen que, con frecuencia, en una misma situación, la respuesta sea diferente en función de su estado de ánimo.
¿Puede una máquina llegar a sentir, a ser empática o a emocionarse?

La certeza: Todavía no podemos definir científicamente las emociones. Por lo tanto, no se las podemos enseñar a una máquina. Una tecnología podrá representar con un amplio margen de realidad un estado emocional, pero solo será un reflejo de situaciones reales vividas previamente por el ser humano. Ahí quedará todo.

Artículo de María Isabel Sánchez-Escribano y Javier Varona
SABER+

¿Hay usos razonables de la interpretación automatizada de las emociones?

Son muchas las voces que alertan de los errores de la tecnología de reconocimiento de las emociones humanas. Pero aún en el caso de que fueran más precisas, son muchos los riesgos que comportan para la privacidad, la multiplicación de sesgos...

Sin embargo, no todos sus usos son malos. Por ejemplo, pueden ayudar a las personas con trastorno autista a reconocer mejor las emociones de los demás, o a los conductores a no quedarse dormidos. "Prohibir esta tecnología o descartar su desarrollo sería tirar al bebé con el agua de la bañera". dice Runa Klingenberg Hansen en Dataethics



Kate Crawford: es un riesgo que hay que regular

El problema: Durante la pandemia se han multiplicado las propuestas tecnológicas que analizan de forma remota las emociones de los trabajadores e incluso de los niños.

La propuesta: Todo el mundo comparte la necesidad de aplicar rigor científico al desarrollo de medicamentos. Las herramientas que analizan nuestras mentes deben recibir al menos la misma protección. Durante años, los académicos han pedido que las autoridades regulen la robótica y el reconocimiento facial; debería hacerse lo mismo con el reconocimiento de emociones. Kate Crawford, autora de Atlas of AI. Nature

"Orgullo y Prejuicio" de las predicciones algorítmicas

La novela de Jane Austen anticipa las limitaciones de la inteligencia artificial para predecir el comportamiento humano. Necesitamos cambiar por completo el debate sobre el uso de algunas herramientas de inteligencia artificial.
"Orgullo y Prejuicio" de las predicciones algorítmicas

Spotify, la cara amable del capitalismo de vigilancia

spotify (2)
En diciembre, Spotify envía a cada uno de sus 365 millones de usuarios Spotify Wrapped, una selección de los artistas, discos, canciones y géneros que más han estado escuchando en la plataforma durante el año. Con todo ese contenido crea una lista de reproducción personalizada para que puedan seguirla o compartirla.

Te dice cuantos minutos de música has estado escuchando, tu lista de canciones más reproducidas e incluso te propone un juego para que veas lo mucho que conocen tus gustos.

A diferencia de otras plataformas que ocultan todo lo que saben de ti, Spotify se enorgullece, lo muestra y hace crecer sus descargas. Xataka // Axios

En paralelo, aumentan también las críticas a la plataforma. Grupos de artistas piden boicotearla. La Vanguardia

Stop Spotify Surveillance

La organización de derechos digitales Acces Now ha enviado una carta a Spotify en la que pide que detenga los planes de patentar e implantar un sistema de inteligencia artificial que espía las conversaciones de los usuarios y usa el sonido de sus voces para dirigir y personalizar anuncios.
En paralelo se ha puesto en marcha una campaña de recogida de firmas. Spotify Surveillance
ÉTICA DIGITAL

El algoritmo de prisiones que no rinde cuentas a nadie

El algoritmo Riscanvi lleva casi doce años implementado en las prisiones catalanas pero todavía no existe ningún mecanismo de gobernanza público que lo evalúe y que permita saber qué peso tienen cada uno de los 43 factores de riesgo que valora la herramienta, que además cambian según el género, edad y origen del preso. La Vanguardia

La dimensión ética de "El Juego del Calamar"

En el mundo de Squid Game (Netflix), un grupo de personas desesperadas debe tomar una decisión terrible: pueden seguir viviendo sus vidas, que están llenas de deudas y sufrimiento, o pueden presentarse a una serie de concursos. Si ganan, sus deudas serán perdonadas. Si pierden, morirán. ¿Qué reflexiones y dilemas éticos plantea la serie? The Ethics Center

Mañana, día de los Derechos Humanos

algorithm watch
  • Mañana, 10 de diciembre, es el Día de los Derechos Humanos. Coincidiendo con esta fecha, la organización Algorithm Watch, radicada en Alemania, promueve una campaña para recordar que la vigilancia biométrica en espacios públicos es un peligro que se debe combatir. Algorithm Watch
  • La Unión Europea gasta millones de euros en tecnología de alto nivel para frenar el flujo de migraciones. The Guardian ha hecho un seguimiento de los principales sistemas en los que invierte para "guardar la fortaleza". The Guardian


Streamer, si descansas, el algoritmo te penaliza

Jornadas maratonianas de directos de lunes a domingo, de unas diez horas al día, para ganar a fin de año unos 25.000 euros. Es la cruda realidad del nuevo trabajador cultural que ha nacido con las redes de YouTube o Twitch. Pero esos ingresos tampoco están regulados ni negociados con los trabajadores: las plataformas como Google o Amazon acostumbran a alterar las condiciones de las tarifas de manera unilateral de la noche a la mañana.
El diario.es

La mitad de los estudiantes de ESO no distingue las “fake news”

El 50% de los estudiantes de Educación Secundaria Obligatoria no es capaz de distinguir un titular falso frente a otro verdadero sobre un mismo tema. Así lo revela una investigación de la Universidad Carlos III de Madrid. Universidad Carlos III

Curso: inteligencia artificial y estado de derecho

La Unesco, The Future Society y la IEEE promueven un curso abierto y online que se titula Inteligencia Artificial y Estado de Derecho. Comienza en marzo. The National Judicial College
LEER +

cuerpos inadecuados
El filósofo Antonio Diéguez responde en este libro a las principales preguntas que el transhumanismo ha creado en la sociedad.
¿Es posible alargar la vida humana de forma indefinida por medio de la tecnología genética? Y, en caso de que lo fuera, ¿qué repercusiones tendría eso sobre la sociedad y nuestra forma de estar en el mundo? ¿Qué modificaciones genéticas se efectúan en la actualidad en muchos animales y cuáles serían imaginables en el futuro? ¿Qué problemas éticos suscitan?

Herder Editorial

DOCUMENTOS

- Amazon's Toll Road. Cómo el gigante tecnológico financia su imperio monopolista explotando a los pequeños negocios. Institute for Local Self-Reliance

- Climate change an AI. Conjunto de recomendaciones para una gobernanza de la inteligencia artificial respetuosa con el medio ambiente y útil en la lucha contra el cambio climático. Global Partnership on Artificial Intelligence

- Positive AI Economic Futures. El informe plantea qué futuros económicos positivos de la IA queremos y cómo superar los desafíos para lograrlos. World Economic Forum
LA FRASE

En realidad, la promesa de la automatización proporciona cobertura para subcontratar, pagar menos y externalizar los costos reales de la tecnología a los trabajadores más vulnerables de la cadena.


Sun-Ha Hong, autor de Technologies of Speculation: The Limits of Knowledge in a Data-Driven Society (NYU Press, 2020) en Real Life

linkedin twitter