Foto de Noah Silliman en Unsplash

Límites de la transparencia

0 Shares
0
0

Dificultades tecnológicas, reticencias y algunas trampas impiden poner en práctica un principio ético que se considera fundamental para gobernar el mundo algorítmico

.

Los algoritmos que toman decisiones ya son de uso corriente. La concesión de créditos bancarios o ayudas públicas, la selección de personal, la evaluación de riesgo delictivo de una persona, las calificaciones educativas y otras tantas decisiones se van delegando en máquinas previamente programadas con ingentes cantidades de datos o, en el mejor de los casos, las siguen tomando humanos pero “inteligentemente” aconsejados por una máquina.

En paralelo, aumentan las denuncias de los sesgos discriminatorios que conlleva esa mecanización de las decisiones, a menudo inexplicadas o inexplicables. 

También las redes sociales son foco de demandas. Las grandes redes como Facebook, Youtube o Twitter siguen códigos internos para filtrar contenidos inapropiados como los que instigan al odio o a la violencia, pero a menudo aplican sus políticas de forma contradictoria y no siempre se entiende por qué permiten o eliminan determinados contenidos.

La sociedad quiere saber cómo y por qué se toman las decisiones y reclama transparencia.

La nueva legislación sobre Inteligencia Artificial que prepara la Comisión Europea pretende frenar la opacidad del mundo algorítmico. En los documentos de trabajo previos, la Comisión Europea considera la transparencia un requisito indispensable para construir una IA confiable.

Según el documento de la comisión de expertos que ha asesorado a la CE, la transparencia requiere tres requisitos:

Trazabilidad: Que se pueda seguir la pista sobre cómo han sido programados los algoritmos y saber qué datos incorporan.

Explicabilidad: Que una vez identificados los criterios y los datos el resultado sea comprensible.

Información: Que se haya advertido al usuario de los criterios del algoritmo o que, por lo menos, pueda pedir explicaciones y ser informado.

El principio de transparencia que invoca la Comisión Europea no es nuevo. El artículo 12 del Reglamento General de Protección de Datos de 2016 ya regula cómo deben actuar las empresas y organismos para garantizar la transparencia de su sistema de gestión de datos.

.

Dificultades, resistencias y trampas 

Los principios están claros, su necesidad parece evidente, las sociedades democráticas no se pueden permitir que el desarrollo tecnológico sobre el que se sustenta el futuro esté gobernando por un oscurantismo inexplicable. Pero ¿es posible la transparencia en un mundo cada vez más ligado a los algoritmos? ¿Se puede realmente llevar a la práctica el principio de transparencia?

Un primer problema surge de la propia naturaleza de la tecnología. Muchos de los sistemas actuales están basados en aprendizaje automático y redes neuronales que procesan ingentes cantidades de datos y se retroalimentan entre sí. En este escenario, es razonable pensar que ni los propios programadores de los algoritmos son capaces de comprender todo lo que hace la máquina y que en los casos más complejos, que son los que realmente es necesario comprender, las explicaciones serán poco comprensibles.

Otro factor a tener en cuenta son las resistencias empresariales a la trazabilidad y explicabilidad que se pretende exigir.

Cuando los algoritmos son usados por administraciones públicas para mejorar sus servicios, hay pocos secretos que valgan. El ciudadano tiene todo el derecho a estar informado y a pedir explicaciones. 

En el ámbito privado la situación es distinta. Aunque se dan muchos casos en que los algoritmos sustituyen o refuerzan procesos humanos cuyos criterios son perfectamente explicables, en otros, las funcionalidades de los algoritmos pueden determinar el éxito de una compañía o sustentar su posición de mercado ante la competencia. ¿Cómo se exige transparencia en esos casos? ¿Hasta dónde se puede llegar? ¿Podríamos pedirle a la Coca Cola que hiciera pública su fórmula si la hubiera creado un algoritmo?

Paradójicamente, una tercera dificultat la puede provocar el exceso de transparencia, que algunos investigadores consideran incluso una trampa. Sun Ha Hong, profesor de la Simon Fraser University en Canadà y autor del libro Technologies of Speculation, publicaba recientemente un artículo titulado “Por qué la transparencia no nos salvará” en el que denuncia el exceso de confianza en la transparencia como factor de reducción de riesgos en el uso de Inteligencia Artificial.

Expone diversas razones. La primera, porque la transparencia puede generar en la práctica exceso de información y en lugar de aclarar, provocar nuevas incertidumbres.  “Se pide a la transparencia que resuelva el problema por sí sola bajo el supuesto de que la desinformación o el abuso de poder se pueden combatir sólo con información.”, dice.

Los ciudadanos se ven abrumados por deberes que no pueden cumplir

Considera también que el exceso de transparencia produce un efecto perverso al trasladar la responsabilidad al usuario.  “Con frecuencia comprobamos que la transparencia acaba transfiriendo el trabajo a los usuarios. Se les obliga a analizar mucha información pero se les priva de la capacidad de realizar acciones correctivas significativas. El resultado es una forma de “responsabilización” neoliberal, en la que el público se ve abrumado por deberes que posiblemente no puede cumplir: leer todos los términos de servicio, comprender complejos casos de riesgo algorítmico, verificar cada noticia”, apunta Sun Ha Hong.

Mientras las corporaciones tecnológicas invierten grandes cantidades de dinero y recursos en ofuscar la forma en que se recopilan y utilizan los datos personales, a los ciudadanos se les responsabiliza por carecer de conocimientos tecnológicos o no preocuparse lo suficiente de su privacidad. Se perpetúa una lógica que consiste en traspasar el trabajo, traspasar la responsabilidad pero mantener el poder.

.

Responsabilidad sin poder 

Ethan Zuckerman, profesor de comunicación y ex director del Center for Civic Media en el MIT Media Lab, publicó recientemente un artículo en el que relacionaba transparencia y poder a raíz del asesinato de George Floyd a manos de un policía norteamericano. Titulaba el artículo  “Por qué filmar la violencia policial no ha hecho nada por impedirla” . Argumentaba que a pesar de que una cámara policial y diversos móviles grabaron la acción criminal del agente y recogieron los gritos de la víctima, Floyd acabó muriendo. La transparencia no le salvó la vida.

“La esperanza de que las cámaras omnipresentes contrarrestaran por sí mismas el racismo sistémico que conduce a la vigilancia excesiva de las comunidades de color y al uso desproporcionado de la fuerza contra ellas era simplemente una fantasía tecno-utópica. Después de años de uso cada vez más generalizado de cámaras y redes sociales está claro que la información solo puede funcionar cuando está conectada al poder.” dice Zuckerman.

.

Foto de Glen Carrie en Unsplash

.

Como consecuencia de la falta de poder real que denuncia Zuckerman la transparencia se acaba convirtiendo en un sucedáneo, una coartada ética que enmascara el comportamiento. Facebook es un ejemplo de ello. 

Tras la debacle de Cambridge Analytica en 2018, Facebook prometió que los investigadores académicos podrían acceder a sus datos y analizarlos. Simon Hegelich, director de diversos grupos de investigación a los que se dio acceso, denunció meses después en la revista Nature que el conjunto accesible de datos resultó menor de lo prometido, después de más de un año de retrasos. “Nuestro proyecto tenía como objetivo determinar si las campañas de desinformación tienen un efecto medible en las encuestas. Pero los datos proporcionados son casi inútiles para responder a esta y otras muchas preguntas, y su cantidad, mucho menor de la que Facebook ofrece a empresas privadas.”

.

La alternativa contrafáctica

Las dificultades y reticencias con que tropieza el principio de transparencia han motivado a Sandra Wachter y otros investigadores del Oxford Internet Institute y del Alan Turing Institute de Londres a promover una alternativa: las explicaciones contrafácticas.

Las explicaciones contrafácticas no se fijan en la programación del algoritmo sino en sus efectos. Tratan de identificar sesgos o errores cambiando parámetros o datos iniciales y comprueban la repercusión de esos cambios en los resultados. Aunque la caja negra de los algoritmos permanezca sellada se puede llegar a saber por qué se tomó una determinada decisión y cómo corregirla. ¿Si ganaras diez mil euros más al año te habrían concedido la hipoteca? ¿Si tuvieras otra titulación habrías conseguido el trabajo? ¿Si te llamaras Jorge y fueras blanco en lugar de llamarte Raisha y de piel oscura obtendrías mejor puntuación? 

Si no me conceden un préstamo, no necesariamente me importa cómo funciona el algoritmo. De hecho, solo quiero saber por qué no obtuve el préstamo y tener alguna orientación sobre cómo obtenerlo la próxima vez ”, dice Wachter.

.

Más allá de una declaración de intenciones

Las sociedades democráticas del siglo XXI exigen transparencia en los procesos administrativos, políticos y tecnológicos que afectan a la vida de las personas. La opinión pública no admite secretismos. La opacidad del poder se considera un abuso de poder. 

Pero en el ámbito privado y especialmente en el tecnológico hay factores que dificultan la transparencia exigida.

Damos por supuesto que la transparencia es un requisito ético indispensable para desarrollar una inteligencia artificial confiable. Lo difícil es que este principio vaya más allá de una declaración de intenciones.

Joan Rosés

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *