Collaterallogo
1 de junio de 2022

Esta semana:
- Los robots que simulan una conversación con personas difuntas ponen en riesgo principios morales básicos.
- Siete formas en que falla la inteligencia artificial.
- La privacidad sigue en horas bajas.
pexels-rachel-claire-4992601 (1)

Ética de la "resurrección" artificial

Los robots que simulan una conversación con personas fallecidas ponen en riesgo principios morales básicos como usurpar su consentimiento, hacer un mal uso de él en caso de que lo hubiera dado, llevar al límite la imitación de lo humano y delimitar la responsabilidad de las consecuencias.

Sólo bajo ciertas premisas pueden ser éticamente aceptables:
- que el consentimiento sea explicito y detallado.
- que se prohíban los desarrollos y usos que no se ciñan a lo que la persona imitada consintió o que vayan en contra de su dignidad.
- que las personas implicadas en su desarrollo y quienes se beneficien de él asuman la responsabilidad de sus resultados.

Artículo de Sara Suárez-Gonzalo, investigadora post-doctoral sobre IA, big data, democracia y derechos humanos, en la UOC.
SABER +

La simulación de Jessica

El artículo de Sara Suárez-Gonzalo parte del caso de Joshua Barbeau, un joven canadiense de 33 años que perdió a su novia Jessica y quiso revivirla mediante técnicas de inteligencia artificial que recreaban su voz y sus palabras. Así detalló el caso el San Francisco Chronicle

Continuar la vida en la nube: las ilusiones del dataísmo

El dataísmo nos promete la vida eterna: en el futuro podremos subirnos a la nube para seguir existiendo. Incluso ahora ya podemos estar en contacto con los difuntos mediante el uso de deepfakes. ¿Qué significa el dataísmo y qué implicaciones tiene para la existencia humana la promesa de la vida eterna? Dataethics

a-robot-holding-it-head-with-gears-and-chips-coming-out

7 formas en que falla la inteligencia artificial

Siete ejemplos de fallos de la inteligencia artificial que muestran las debilidades estructurales de estos sistemas. Los científicos debaten posibles formas de abordarlos aunque algunos desafían cualquier explicación o, simplemente, carecen de solución.
Fragilidad, sesgo, olvido catastrófico, explicabilidad, cuantificación de la incertidumbre, sentido común y matemáticas. Sí, en matemáticas también fallan. Este artículo explica por qué. IEEE Spectrum

La privacidad sigue en horas bajas


Recordaba la pasada semana Hugo Sáez en su boletín Mind Tricks que la privacidad sigue tan vulnerable como siempre aunque Apple se empeñe en hacer de la defensa de la privacidad un emblema de su estrategia competitiva. Este es su último vídeo promocional
Captura de Pantalla 2022-05-29 a les 17.22.22
- Google ha sido demandado en el Reino Unido por utilizar datos médicos de 1.6 millones de pacientes sin su consentimiento

- Trabajadores de Facebook reconocen abiertamente que “No saben qué hacen con tus datos ni a dónde van”.

- Amazon confirmó que utiliza lo que le dices a Alexa para impactarte con anuncios personalizados en Internet en base a la información recogida.

- La aplicación de citas Grindr lleva por lo menos desde 2017 vendiendo a terceros información sobre la localización de sus usuarios.

- Mozilla ha publicado un informe sobre las principales aplicaciones de móvil sobre salud mental: 29 de 32 “espían, comparten y capitalizan a sus usuarios”.

Así recopila y usa Spotify los datos de sus usuarios

Un grupo de estudiantes universitarios miembros de Encode Justice Canada, una organización dedicada a incorporar a la juventud canadiense en los debates esenciales sobre el futuro de la IA, ha analizado los métodos que utiliza Spotify para recopilar y sacar provecho de los datos de sus usuarios.
  • "El algoritmo actúa como una especie de “vigilante emocional”. Es importante conocer cómo el algoritmo de Spotify recopila datos y los utiliza y también comprender sus implicaciones para la privacidad personal". Montreal Ethics Institute

Coches autónomos, nuevos vigilantes de la calle

La policía de San Francisco admite en un documento interno que usa el vídeo de las cámaras de taxis sin conductor en sus investigaciones para aclarar delitos y accidentes. De momento, los coches autónomos circulan en áreas restringidas pero paulatinamente se irán incorporando al tráfico urbano. Van equipados con múltiples cámaras y sensores capaces de monitorizar todo lo que sucede a su alrededor La Vanguardia

LEER +
hombre transparente

Javier Moreno denomina el hombre transparente al ser humano desprovisto voluntariamente de opacidad frente a la ambición extractiva de datos por parte de las redes y plataformas, dimisionario de lo político, mero interfaz/transmisor de la comunicación digital.
"La transparencia podría ser la ideología predominante en nuestro tiempo. Ni siquiera el inconsciente queda a salvo de estas tecnologías que parecen apropiarse de lo más íntimo: nuestro deseo." Akal



ÉTICA DIGITAL

El despliegue de la IA amenaza con acentuar la discriminación de los migrantes

Organizaciones civiles alertan de que la creciente adopción de sistemas algorítmicos, especialmente en las fronteras, amenaza con criminalizar a las comunidades racializadas.
Los colectivos AlgoRace, Algorights y Lafede.cat, han celebrado en Barcelona y Madrid las Jornadas "Democracia, Algoritmos y Resistencias". Vídeo de la primera jornada.

- Míriam Hatibi: “Lo peor de la discriminación algorítmica es que nadie es consciente de hasta dónde llega. Eldiario.es

Rachel Botsman: "Los efectos imprevisibles de la innovación no pueden ser una escusa para no evitarlos"


  • "Es difícil predecir los impactos negativos de un invento, pero los innovadores y los líderes tecnológicos podrían hacer algo más para evitarlos".
  • "Una consecuencia no prevista es diferente de un resultado no deseado. Un accidente de tren o automóvil es un resultado no deseado. Es diferente del impacto que provoca una política deliberada o una acción intencionada, como un modelo comercial basado en publicidad, que pone en marcha una serie de comportamientos dañinos y efectos negativos".
  • "A medida que se hacen evidentes las consecuencias imprevistas, depende de los empresarios implementar, actualizar o repensar por completo los modelos de negocio y los mecanismos estructurales que tienen para reducir los impactos negativos."
Rachel Botsman, autora de Who Can You Trust?, en Wired

+ TEMAS

- IQ-Learn, la técnica que permite a los robots aprender observando a los humanos. HAI Stanford

- Europol prepara su Gran Hermano digital. El País

- Tráfico sabrá en tiempo real dónde estará cada vehículo a partir de 2026. Voz Populi

- Algoritmo verdes. 10 retos para el desarrollo de la IA sostenible. Digitales

LA FRASE

La gente reaccionará contra los abusos de la tecnología y acabará con la ciencia


Sonia Contera, experta en nanotecnología de la Universidad de Oxford, El País

linkedin twitter 
Email Marketing Powered by MailPoet