El control humano sobre los sistemas algorítmicos requiere a menudo reducir la velocidad, hacer una pausa, pensar y luego actuar.
Es necesario considerar qué procesos pueden acelerarse y cuáles no. A veces una IA ética significa una IA lenta.
.
Vivimos en la cultura de la inmediatez. En las dos últimas décadas nuestro mundo mediado digitalmente ha eliminado prácticamente el tiempo entre «ahora» y «después» y el espacio entre «aquí» y «ahora«. Nos hemos acostumbrado a interactuar con las cosas y las personas de forma directa e inmediata. El «término medio» se vuelve «superfluo», como dice el sociólogo John Tomlinson en La Cultura de la Velocidad (2005). La brecha entre el deseo y la realización se ha cerrado. Con un sólo clic. ¿Es ésta nuestra visión de la vida buena o podemos imaginar algo mejor?
Nuestra obsesión por la velocidad está impulsada por lo que Tomlinson llama «capitalismo rápido», una forma de capitalismo tardío en el que las tecnologías de la información y la comunicación crean un círculo vicioso al acelerar el imperativo de consumir y, por lo tanto, de producir. Un capitalismo basado en una cultura que equipara la velocidad a valores positivos como la eficiencia y la productividad, mientras que la lentitud se asocia a la pereza, la ociosidad, el despilfarro e incluso la torpeza o el atraso.
Todavía hoy impera el culto a la eficiencia basado en las ideas de Frederick Taylor de principios del siglo XX, particularmente en la industria de la tecnología que produce el mundo «telemediado» de Tomlinson. De hecho, la eficiencia y la productividad son valores que reinan de manera tan suprema que a veces borran otros valores humanos como la dignidad, el placer, la libertad, el ocio y, sí, la ociosidad (ver Elogio de la ociosidad de Bertrand Russell ).
Aunque Tomlinson no habla específicamente de la inteligencia artificial, si ampliamos su concepto de inmediatez telemediada creo que, en el contexto de la IA, debemos dar un paso atrás y considerar qué procesos sociales pueden o deben acelerarse mediante la intervención algorítmica y cuáles no. A veces una IA ética significa una IA lenta.
.
Dignidad humana y trabajo
Obviamente, no todas las experiencias mediadas digitalmente deberían desacelerarse. Desde la invención del telégrafo hasta el Zoom de hoy en día la inmediatez se ha convertido en un imperativo de diseño necesario para que la experiencia del usuario sea fluida. Queremos una conectividad rápida. Queremos que los videos de YouTube se almacenen en búfer sin demoras y exigimos acceder rápidamente a nuestros documentos de Google. No hay ninguna razón por la que descargar un libro electrónico de una biblioteca requiera cinco clics. Amazon puede hacerlo en uno. Nos hemos acostumbrado a la inmediatez del clic.
Sin embargo, en otras muchas experiencias humanas, como el trabajo, en las que se toman decisiones que comportan consecuencias para la vida de las personas, hay que pensárselo dos veces antes de diseñar para la inmediatez a toda costa.
En su reciente libro Fulfillment Alec MacGillis explica cómo los sistemas de vigilancia automatizados de Amazon miden la productividad de cada empleado calculando el tiempo que «desaprovecha». Son mediciones que se utilizan para tomar decisiones algorítmicas sobre quién debe ser despedido y quien merece conservar su empleo. Lo ilustra una cita de uno de los abogados de la empresa:
“El sistema de Amazon rastrea las tasas de productividad de cada empleado y genera automáticamente avisos o despidos en función de la calidad del trabajo o la productividad sin participación de los supervisores” (el énfasis es mío).
.
.
Cientos de empleados son despedidos de esta forma. Otros sufren al tener que administrar el tiempo de que disponen para ir al baño por temor a que el algoritmo considere que están perdiendo el tiempo.
Este tipo de puntuaciones puede eliminar el sesgo humano en la toma de decisiones (aunque es necesario investigar un poco más para determinar si eso es realmente así) y sin duda aporta velocidad al proceso y ahorra tiempo a los supervisores que ya no deben revisar cada caso manualmente. Pero, ¿cuáles son las consecuencias para las personas afectadas? Es poco probable que alguien a quien no se le haya dado suficiente tiempo para ir al baño pueda hacer mejor su trabajo. Los vínculos sociales y el sentido de pertenencia y comunidad en el trabajo son aspectos muy importantes de nuestra vida social y podrían verse afectados negativamente.
.
Agotamiento digital y otras consecuencias
A muchos trabajadores de la sociedad de la información la inmediatez que exigen las tecnologías digitales y la falta de interacción personal causada por la pandemia les provoca «agotamiento digital». Un reciente estudio de Microsoft sobre “El lugar de trabajo híbrido» confirma que los trabajadores sienten la carga del intercambio digital acelerado y permanente. Aunque el contacto directo con los compañeros de trabajo a través del correo electrónico, el chat y las videollamadas, y a veces todo a la vez, parece eficiente, no requiere esfuerzo y ahorra tiempo, surgen efectos sociopsicológicos indeseables a causa de la aceleración comunicativa: estrés, ansiedad, incapacidad para concentrarse, sentimiento de pérdida de control y agotamiento de estar siempre disponible. En el lugar de trabajo, el tiempo es dinero, pero a veces vale la pena reducir la velocidad.
.
Diseñar para la lentitud
Hemos visto cómo la toma de decisiones automatizadas en el lugar de trabajo, como el despido y la contratación, pueden provocar consecuencias lo suficientemente dañinas como para justificar una revisión de los costes que comporta la velocidad para la dignidad humana.
También en otros ámbitos se toman decisiones automatizadas: diagnósticos y tratamientos médicos, fianzas y sentencias judiciales, detenciones policiales, evaluación de exámenes, asignación de plazas educativas…
Además de preocuparse de la equidad, la responsabilidad y la transparencia, los diseñadores y desarrolladores de sistemas de inteligencia artificial deberían considerar cómo la aceleración en la toma de una decisión afecta a todas las partes involucradas en ese proceso.
Diseñar para la lentitud puede no ser popular, pero no es una idea nueva y resulta especialmente pertinente en la era de la inteligencia artificial. Un diseñador de IA debería hacerse también un par de preguntas. ¿Cómo la automatización de una tarea acelera el ritmo social de esa actividad? ¿Cuáles son los posibles perjuicios y beneficios de esa aceleración para todas las partes involucradas?
“El culto a la productividad y nuestra obsesión por emplear sabiamente cada minuto se han convertido en las grandes virtudes incuestionables de nuestra época”.
– Judy Wajcman
Un maestro, por ejemplo, puede beneficiarse de los exámenes automatizados al ahorrarse el tiempo que le habría comportado realizar esa actividad manualmente, y tal vez los estudiantes también se beneficien porque así el maestro puede invertir ese tiempo en una interacción de calidad con ellos. Pero, ¿hay algo que se pierda en ese tiempo ganado? ¿Puede esta rapidez eliminar la oportunidad de que el maestro conozca mejor el estilo de escritura de sus estudiantes y aprenda más sobre ellos a través de sus textos? ¿Cómo afecta eso a la relación maestro-alumno?
.
Un humano en el circuito
Este tipo de preguntas deberían pasar a un primer plano en la fase inicial de un desarrollo algorítmico. Es necesario identificar los daños potenciales y pensar cómo mitigarlos. Los sistemas automatizados de toma de decisiones tal vez necesiten, por ejemplo, incorporar a un «humano en el circuito» para que el sistema de inteligencia artificial no ponga en marcha una acción sin que una persona interprete los resultados, consulte con otros expertos, encuentre sentido a la decisión y confirme o anule el siguiente paso. La intervención humana ralentiza el proceso pero puede mitigar los daños provocados por una decisión automatizada incorrecta.
.
.
Otra posibilidad podría consistir en ralentizar la experiencia de usuario para provocar un comportamiento más saludable y centrado en el ser humano. Por ejemplo, en cualquier situación en que se obtengan datos personales el usuario debe saber qué datos se recopilan, por qué y qué control tendrá sobre ellos. En situaciones particularmente importantes para la privacidad, es posible que sea necesario colocar algún «obstáculo” o “reductor de velocidad” en la interacción con el usuario para así conseguir un consentimiento más informado. Esto puede requerir que haya que leer más información y hacer clic en algunos botones más, pero también permitirá que el usuario tome una decisión con mejor criterio.
Igualmente, en el contexto de las redes sociales los psicólogos han comprobado que el efecto de la desinhibición online a veces nos hace decir o hacer cosas que en persona no haríamos ni diríamos. Aquí, los diseñadores podrían incorporar en la interfaz de usuario o en las ventanas emergentes algunas sugerencias útiles que nos ayudasen a detenernos y pensar antes de publicar algo.
Un control humano efectivo sobre un sistema de IA a menudo requiere reducir la velocidad, hacer una pausa, pensar y luego actuar.
.
La eficiencia no es la única vía hacia el progreso
El libro de Tomlinson, publicado en 2005, puede parecer algo anticuado dado lo mucho que nuestro mundo se ha «acelerado» en la última década y media. Sin embargo, eso prueba la fuerza de su tesis. Si se aplica a las últimas tecnologías digitales, como los sistemas basados en inteligencia artificial, ayuda a ilustrar lo rápido que el capitalismo ha eliminado las distancias en el tiempo y el espacio.
Lo que antes eran procesos sociales físicos y manuales, ahora se digitalizan y automatizan rápidamente. Como sostiene Tomlinson, esto no es necesariamente malo, pero la velocidad tampoco debe tomarse al pie de la letra como un bien social. La automatización no siempre comporta eficiencia, y la eficiencia no siempre es el valor que deberíamos perseguir. Hay muchos caminos para progresar y no todos nos conducen a la eficiencia.
En otras palabras, necesitamos un enfoque más matizado de la automatización basada en inteligencia artificial que examine los contextos sociales de cada aplicación y el rango de valores que las personas quieren promover a través de la inteligencia artificial. Aquí, la sociología puede ayudar.
1 comments
Gracias por hacernos llegar esta contribución.
En su «Etica para tiempos oscuros», Markus gabriel propone una definición de ética que creo que enlaza bien con el espíritu de este artículo.
Propone que la ética nos orienta en relación a lo que debemos hacer tanto como hacia lo que NO debemos hacer.
En este caso, acelerar antes de considerar las consecuencias. La tendencia hacia acelerar la aceleración no es ética.
Muy cordialmente