Proliferan los árbitros robotizados y los sistemas automatizados de toma de decisiones. Más allá del impacto que supone la sustitución material de personas por máquinas y de los sesgos y errores que generan, también provocan efectos cuando nos relacionamos con ellos
En algunos torneos de tenis un nuevo juez electrónico determina si la pelota se ha jugado correctamente. Sustituye al habitual “ojo de halcón” que mediante una decena de cámaras analiza la trayectoria de la bola. Foxteen, el nuevo sistema diseñado en Barcelona, comprueba directamente el bote a partir de una red de sensores y cámaras y emite su veredicto en voz alta.
Lo trascendental del invento es que, a diferencia del “ojo de halcón”, no actúa a petición de los jugadores o del árbitro sino que lo hace de oficio. Se constituye, por lo tanto, en un nuevo juez.
Una función parecida se ha incorporado a otros deportes, por ejemplo el béisbol. El año pasado se hicieron virales en Twitter las imágenes de un partido en el que un robot-árbitro, Automated Ball-Strike System, erraba ostensiblemente en el veredicto de una jugada. En las imágenes se ve como el bateador se paraliza, perplejo, cuando el robot da por buena la acción errónea del lanzador. Se bloquea, se quita el casco, no sabe qué hacer. Al cabo de unos instantes reacciona y habla con el juez humano situado a pie de campo, pero éste se inhibe.
El escritor Will Oremus lo describió así: «Es una hermosa metáfora visual de los peligros de la automatización. El lenguaje corporal del bateador expresa la incredulidad de haber sido eliminado por un árbitro robot estúpido mientras el árbitro humano viene a decir: Oye, yo solo trabajo aquí, tómala con el algoritmo”.
En una relación habitual árbitro/jugador el error tal vez habría provocado una respuesta airada del bateador y de todo su equipo. Con el robot, la reacción es de perplejidad porque la responsabilidad se traslada a un ente incorpóreo con el que no puedes discutir.
El caso ha dado para bastantes comentarios. En el blog The Convivial Society, L.M. Sacasas recoge algunos: “lo que me sorprende es como la incredulidad y la resignación reemplazan a la ira. Aquí la ira no tiene sentido, no tiene contra quién dirigirse. Esto ha ocurrido en un partido de las ligas menores de béisbol, pero extrapolando a otras esferas de la sociedad, las consecuencias son desmoralizadoras”, dice el propio Sacasas.
Efectos de la sustitución
Si sólo afectara al deporte, el caso tendría una trascendencia limitada. Pero empiezan a ser muchos los ámbitos en los que se implantan sistemas automatizados de toma de decisiones. En los tribunales de justicia, en los procesos de selección de trabajadores, en la asignación de subvenciones y ayudas, en la evaluación de estudiantes…
Más allá del impacto que pueda suponer la sustitución material de personas por máquinas, el caso invita a reflexionar sobre los efectos que la toma automatizada de decisiones provoca en las personas que no son sustituidas. Es decir, en la mayoría.
Un primer efecto parece evidente: la responsabilidad se diluye. Como el árbitro humano del béisbol que se excusa ante la decisión del algoritmo (“a mí, que me registren”), la automatización facilita eludir la responsabilidad o, por lo menos, situarla en una nebulosa que dificulta su exigencia. Se instala la máquina porque se le presume una mayor precisión para emitir un juicio, pero ¿de quién es la responsabilidad cuando se equivoca? La lógica diría que debe haber un juez humano superior que pueda corregir los errores, pero no siempre es así. O mejor dicho, cada vez es menos así.
Se altera también la relación con el poder. Con un árbitro humano existe la posibilidad de protestar y negociar la rectificación de una mala decisión. En el deporte, los aficionados pueden dirigir sus quejas contra un árbitro identificable, el entrenador o el capitán pueden intentar hablar con él, se puede revisar el video… Contra la decisión de un algoritmo el jugador es incapaz de apelar por muy obvio que sea el error. No hay nadie a quien hacerlo. El juicio es incorrecto porque el veredicto es erróneo pero la sensación de impunidad aumenta por la falta de “justicia procesal” y de mecanismos identificables de reclamación.
Cuando el algoritmo no se equivoca
La situación resulta igualmente inquietante cuando el robot no se equivoca.
A raíz de este caso, Alva Noë, profesora de filosofía en la Universidad de California, comentaba en The New Yorker : “Lo que observamos en el béisbol es una muestra de la obsesión que tiene la civilización occidental por la búsqueda sistemática de la objetividad. La gente huye de lo subjetivo. Pero ¿qué es la objetividad?’ ¿Es algo físico? ¿Es matemático? ¿Es cognoscible? ”
A medida que vayan dejando de equivocarse, a los algoritmos se les irá transfiriendo más poder y delegando más confianza. Su garantía de objetividad les facilitará penetrar en más ámbitos. En contrapartida, externalizar la toma de decisiones en una máquina provocará sin remedio una pérdida gradual de confianza en lo humano. Ante lo supuestamente objetivo, la subjetividad humana pierde valor. Ante millones de datos procesados, nuestra experiencia y nuestra intuición son prescindibles. Incluso nuestras propias convicciones pueden trastabillar ante la supuesta solvencia de un algoritmo. ¿Quién soy yo para confiar en mis propios ojos y mi propio juicio cuando el robot dice lo contrario? Ha analizado millones de datos, seguro que lo sabe mejor que yo”. Algo así ocurre ya con los candidatos a un puesto de trabajo cuando saben que serán cribados por un algoritmo y se entrenan para responder correctamente a los criterios de la máquina.
Puestos a externalizar los veredictos, la tecnología también invita a hacerlo con los criterios éticos a aplicar en la toma de decisiones. Ante una situación comprometida, dudamos. Los dilemas morales son difíciles de resolver. Siempre contradictorios, siempre relativos, cuesta priorizarlos y acertar con la decisión correcta. Su resolución implica procesos de reflexión subjetiva, insoportables para una vida moderna apremiada por la necesidad de lo objetivo y lo inmediato. En tales circunstancias, ¿por qué no aplicar sistemas éticos automatizados basados en el análisis de millones de dilemas? “¿He actuado mal?, lo siento, me lo ha recomendado el algoritmo.”
Los robots tienen la palabra. Y si no la tienen, se la vamos concediendo.