Collaterallogo
26 de julio de 2023

- Dos artículos nos alertan de los riesgos del reconocimiento facial. Los resumimos.
- No son buenos tiempos para la ética. Se suceden los ejemplos de malas prácticas.
- Feliz verano! Volvemos en septiembre.

Reconocimiento facial, cinco riesgos y dos alternativas

Verano. Aeropuertos y estaciones llenas. Festivales y conciertos al aire libre, también. Pronto llegará la hora de abarrotar los estadios de fútbol. Una tecnología está al quite para asistir en la gestión de multitudes. El reconocimiento facial.

Cinco riesgos a tener en cuenta

En un mundo en el que las contraseñas se han convertido en un engorro (¿quién recuerda el centenar que debería usar todos los días?) y, al mismo tiempo, en un problema de seguridad (porque se dejan en blanco, se reutilizan, se comparten, se adivinan), el reconocimiento facial parece la solución ideal.

Sin embargo, no todo es perfecto cuando usamos este sistema. Utilizar un atributo biométrico, como puede ser nuestra cara, para realizar procesos de verificación de identidad, implica riesgos... (Marta Beltrán, profesor de Ciberseguridad en la Universidad Rey Juan Carlos. Artículo completo)

¿Qué se puede hacer?

Los equipos encargados de hacer cumplir la ley podrían realizar dos pasos preliminares antes de recurrir al reconocimiento facial: reconocimiento de actividad o detección de acciones. Este enfoque puede ayudar a minimizar las violaciones de la privacidad y la generación de falsos positivos... (Nadia Kanwal, profesor de Informática en la Universidad de Keele (Reino Unido). Artículo completo)

RELACIONADO


ChatGPT también permite identificar rostros

OpenAI está probando una versión de ChatGPT que puede reconocer y describir los rostros de las personas a partir de imágenes. La herramienta podría ayudar a personas con discapacidad visual, pero podría ser una pesadilla para la privacidad. The New York Times

Los más vulnerables, los menos protegidos

Actualmente existen pocas medidas para proteger los datos de los refugiados y las personas vulnerables que necesitan apoyo humanitario. Además, muchas organizaciones que se establecieron y financiaron para proteger a estas comunidades recopilan sus datos sin aplicar las salvaguardas requeridas por las leyes. Análisis del Ada Lovelace Institute

IA aplicada al control de las migraciones. Euromed Rights

No hay usos correctos del reconocimiento facial

Las tecnologías que registran y analizan nuestros rostros o son prescindibles o violan la privacidad. Es común leer estos días artículos de opinión intentando establecer usos correctos e incorrectos de los sistemas de reconocimiento facial automático. Quiero argumentar que no hay usos correctos de esa tecnología. (David Casacuberta)
No hay usos correctos del reconocimiento facial

Orwell en tiempos de reconocimiento facial

La distopía de George Orwell, «1984», presenta similitudes con el presente y avanza dilemas éticos todavía hoy difíciles de abordar. (Ferran Esteve)
Orwell en tiempos de reconocimiento facial

Malos tiempos para ética


El lado oscuro de YouTube

YouTube también tiene un lado oscuro, lleno de extremismo y violencia. Si bien la plataforma se ha comprometido a moderar este tipo de contenido obviamente inmoral, todavía difunde muchos videos éticamente cuestionables. El modelo de negocio actual con el que algunos youtubers ganan dinero no les anima a comportarse de forma ética. YouTube no parece muy interesado en cambiar este comportamiento. Markkula Center

WormGPT, la versión de ChatGPT orientada al mal

ChatGPT pretende ser correcto y formal. El chatbot desarrollado por OpenAI, también en Bing Chat, cuida el tono y sus propios límites, y es difícil que conteste preguntas tóxicas o que escriba algo inapropiado. Sin embargo, ha aparecido una versión de ChatGPT específicamente diseñada para saltarse todas las barreras éticas. Se llama WormGPT. Xataka

Los desarrolladores de IA se desentienden de la ética

Dos informáticos norteamericanos entrevistaron a 27 ingenieros y directores de proyectos en el campo de la Inteligencia Artificial para saber cómo respondían a las cuestiones éticas. En pocas palabras: no lo hacen.
  • Modularidad. Casi todos los proyectos de machine learning se basan en el principio de modularidad. Los ingenieros suelen crear herramientas de propósito general que luego son reutilizadas por otros para aplicaciones específicas. Esto crea una “deuda ética”, ya que las fallas de los primeros módulos se transmiten al siguiente. Al final, es prácticamente imposible tener una visión general de un sistema.
  • En general, la ética se ve como un obstáculo. No es escalable, afirman, y no es parte del “resultado” que se espera de ellos. En el mejor de los casos, la ética es una actitud que deben adoptar para las relaciones públicas. Journals

TikTok, dañino por diseño

Deadly by Design es un informe del Center for Countering Digital Hate que brinda a los padres y a los legisladores información sobre el contenido y los algoritmos de TikTok que consumen los jóvenes. Conclusión: TikTok difunde en sus feeds contenido dañino que promueve los trastornos alimentarios y autolesiones en los usuarios jóvenes. Counter Hate
linkedin twitter 
Email Marketing Powered by MailPoet