Collaterallogo
3 de noviembre de 2021

Hola, [subscriber:firstname | default:reader]

Esta semana publicamos un artículo de la filósofa Carissa Véliz que resume los conceptos principales de su conocido libro "La privacidad es poder" editado en español hace unas semanas. Lo hacemos en dos partes.

Y nos hacemos eco de las graves consecuencias de los errores y sesgos de los algoritmos.



La privacidad es fuente de poder. ¿Por qué la cedemos?

evgeni-tcherkasski-nGQHF5opInc-unsplash (1)
La privacidad es la llave que protege nuestros aspectos más íntimos y personales. Los datos nos singularizan y nos hacen vulnerables. La privacidad es importante porque nos hace más libres; cuando se desvanece, otros pueden ganar poder sobre nosotros.

¿Por qué regalamos nuestros datos personales a todo aquel que nos los pide?

La economía digital se basa en buena parte en la explotación de nuestros datos personales y constituye una forma de poder menos visible pero muy efectivo.

En esta primera parte del artículo Carissa Véliz (autora de Privacidad es poder) analiza cómo el control de la privacidad se convierte en poder.

La privacidad se puede proteger. Hagámoslo!

alex-block-0FTASntRc2M-unsplash (1)
Las compañías tecnológicas quieren que pensemos que, si no hemos hecho nada malo, no tenemos ninguna razón para oponernos a que almacenen nuestros datos. También quieren que pensemos que tratar nuestros datos como una mercancía es necesario y que la tecnología digital es progreso. Y quieren que pensemos que las innovaciones que sacan al mercado son inevitables. Son progreso, y el progreso no se puede detener.

La tecnología nos seduce constantemente para que hagamos cosas que de otra manera no haríamos.

Pero podemos resistirnos. La privacidad se puede proteger con un pequeño esfuerzo de regulación, un poco de resistencia de los ciudadanos y algunas empresas que empiecen a ofrecer privacidad como una ventaja competitiva.

En la segunda parte del artículo Carissa Véliz nos explica cómo protegernos.

Saber +


Los profesores saben muy poco sobre la privacidad de sus alumnos (ni cómo orientarlos)

Niños y adolescentes son tal vez los grupos de población más vulnerables a la desprotección de los datos personales. Una investigadora estadounidense ha indagado sobre el conocimiento que los profesores tienen del grado de protección de la privacidad de sus alumnos y sobre cómo orientarlos. El resultado es decepcionante. Edsurge

Las Big Tech impulsan el control digital de los ancianos. ¿Por qué?

Impulsados ​​por la pandemia, Google, Amazon y Apple incrementan su oferta de herramientas para monitorizar a las personas mayores. Aunque los dispositivos pueden proporcionar una sensación de mayor conexión, defensores de la privacidad alertan sobre el tipo de datos que se recopilan a través de esos dispositivos. Si pocos consumidores en general analizan las políticas de privacidad de los dispositivos ni modifican las configuraciones de origen, menos lo harán los ancianos. The Markup

Buscador de políticas de privacidad

PrivaSeer es un motor de búsqueda de políticas de privacidad. Su objetivo es hacer que las políticas de privacidad sean transparentes y detectables. Privaseer

Ética digital


El sesgo de los algoritmos explicados a los niños

The Most Likely Machine es un proyecto interactivo del estudio de diseño Artefact que ayuda a los estudiantes a comprender mejor cómo funciona el sesgo algorítmico. Los participantes comienzan asignando atributos a personajes históricos como Albert Einstein, Marilyn Monroe y Rosa Parks. A partir de ahí el algoritmo hace sus valoraciones y descubre cómo se construye el sesgo algorítmico y lo peligroso que puede llegar a ser. Most Likely Machine

Cuando los algoritmos se equivocan

Un error en el algoritmo que calcula los salarios de los trabajadores de Amazon en Estados Unidos provocó que durante al menos un año y medio los cálculos de las retribuciones fueron incorrectos. La empresa reconoció el error pero no terminó de pagar a los trabajadores hasta meses después, cuando muchos de ellos habían sufrido embargos y aumentado sus deudas. The New York Times

Zomato es la plataforma líder de reparto en India. Un día de septiembre, sin previo aviso, la plataforma ajustó su algoritmo para extender las zonas de entrega de los repartidores. Por lo general, a los repartidores se les asignan trabajos dentro de un área de 10 kilómetros. De repente, los enviaron a 40 kilómetros de distancia.
El cambio provocó que a algunos repartidores les resultara imposible cumplir con sus cuotas diarias de entregas. Consecuencias: pérdida de ingresos o incluso despidos. Restoftheworld

Todo sobre los papeles de Facebook

Cada día surgen nuevas revelaciones sobre el dudoso comportamiento moral de los dirigentes de Facebook. Quien esté interesado en seguir lo que se publica, que es mucho, aquí tiene una exhaustiva recopilación. Enlace
Si os interesa un buen resumen, Carmela Ríos lo aporta en este hilo. Twitter

La evaluación ética ya capta el interés de inversores

La startup con sede en San Francisco Credo AI está especializada en ayudar a las empresas a gestionar los riesgos regulatorios y éticos de sus productos de inteligencia artificial. Se fundó en 2020 y ya ha conseguido 5,5 millones de dólares de inversión. Axios

Leer +

1540-1
Tras entrevistar a legisladores, inversores, académicos, ejecutivos de Silicon Valley y empleados de la compañía, Sheera Frenkel y Cecilia Kang, periodistas de The New York Times, se adentran en los entresijos de una empresa rodeada siempre de un gran secretismo y cuya cultura exige una lealtad ciega, y revelan las operaciones ocultas y las luchas de poder internas. La culpa de lo que ocurre en Facebook no es del algoritmo.
Debate

Documentos

- Strengthening international cooperation on AI. Cooperación internacional en inteligencia artificial: por qué, qué y cómo. Brookings

- The limits to digital consent. Comprender los riesgos del consentimiento en la recopilación de datos con especial atención a las minorías y a las colectividades subrepresentadas. Simplysecure

- Biometric behavioural mass surveillance in EU member states. Análisis de la situación actual de la identificación biométrica remota en Europa. Los Verdes

La frase


Los ingenieros modernos ensamblan sus códigos con las mismas ilusiones y malentendidos que tenían los antiguos alquimistas al mezclar sus pociones mágicas.



Robbert Dijkgraaf, físico, Universidad de Princeton (EEUU). Quanta Magazine

linkedin twitter