Prometen eficiencia pero cada vez más expertos alertan de sus riesgos
Los inventos tecnológicos se han iniciado siempre bajo un aureola de bondad. Los digitales, también.
Internet y la web se expandieron impulsados por una promesa de descentralización. No tardó en comprobarse que facilitaron la creación de grandes corporaciones globales de tamaño e influencia nunca vistas.
Las redes sociales se desplegaron con entusiasmo gracias al efecto democratizador que suponía dar voz a los usuarios. Tampoco tardó mucho en comprobarse que los algoritmos que las gestionan están programados para capturar la atención y generar tráfico a pesar de que eso implique ser indulgentes con la desinformación y los mensajes de quienes intentan reventar los principios de la democracia.
Con la IA está pasando algo parecido. Antes de que se consolide su uso masivo ya han surgido plataformas con una capacidad inusualmente rápida de imponer el ritmo y orientación del desarrollo tecnológico de las próximas décadas y capturar el valor que de ello se derive.
El permiso explícito entendido como un engorro
Entre los nuevos inventos que se anuncian destaca el de los agentes de inteligencia artificial.
Los agentes IA son programas que actúan y toman decisiones de forma autónoma en nombre del usuario.
La promesa es alentadora: pueden responder los emails por nosotros, relevarnos de operaciones farragosas como organizar un viaje (el agente se ocupa de la planificación, la búsqueda de vuelos/hoteles y el pago), automatizar la atención al cliente y otras tareas más complejas que todavía no imaginamos.
A falta de que realmente se desplieguen y consoliden, que está por ver, se intuyen riesgos.
En una reciente intervención pública, Meredith Whittaker, presidente de la aplicación de mensajería instantánea Signal, no se andó con ambigüedades: los agentes IA suponen una amenaza. “Son una especie invasora que se cuela por la puerta de atrás de nuestras aplicaciones digitales”, dijo.
El motivo de la alarma es que los agentes automatizados eluden uno de los principios básicos de la navegación digital: el permiso explícito.
Hasta ahora, cada vez que visitamos una página web se nos pide que validemos los términos y condiciones de privacidad. Cuando contratamos un servicio debemos dar el ok definitivo. Cuando hacemos un pago debemos confirmar los datos de la targeta de crédito. Y aunque a menudo actuamos por inercia, siempre debemos decidir si damos nuestro consentimiento. Con los agentes, esa precaución desaparece: es el agente el que decide y actúa por nosotros.
Con una navegación limitada, la delegación de permisos puede estar bajo control, pero a medida que las acciones se compliquen, la cantidad y la relevancia de los permisos explícitos a los que renunciaremos será cada vez mayor.
Es decir, los agentes serán realmente eficaces a medida que adquieran autonomía y les deleguemos mayor capacidad de gestión.
Más poder para el poder
A Whittaker le preocupa, además, que esa permisividad se produce no solo con el agente en concreto que decidamos usar sino a nivel del sistema operativo que los acoge. Para ser eficaz, el agente necesita acceso a los datos que almacena el sistema (calendario, contactos, tarjetas de crédito, mensajes, passwords…) y, por lo tanto, precisa actuar sin las barreras que han existido hasta ahora entre el sistema operativo y las aplicaciones.
Como resultado, las compañías que controlan los sistemas operativos aumentan su poder.
A tenor de esos riesgos y visto lo ocurrido con inventos precedentes, la experiencia aconsejaría precaución.
Pero el poder tecnológico no está para precauciones. La generación de inventos sigue a lo suyo, desplegándose aceleradamente, amparada siempre por la coartada de la innovación y el progreso y envuelta por una panoplia repetitiva de argumentaciones bienintencionadas y seductoras.
Caramelos para todos
No es Whittaker la primera en alertar del camino que inician los agentes. Algunos investigadores y pioneros notables de la IA, también lo han hecho.
Geoffrey Hinton, premio Nobel de Física 2024, conocido como uno de los «padrinos de la IA», ha advertido de la pérdida gradual de control humano a medida que los sistemas se vuelven más autónomos. Según él, la capacidad de manipulación de los sistemas avanzados de IA es comparable a la de «un adulto que engaña a un niño con caramelos».
Yoshua Bengio, otro de los «padrinos de la IA» ganador del Premio Turing en 2018, considera que los agentes IA son «el camino más peligroso» en el desarrollo de la inteligencia artificial.
Stuart Russell, profesor de la Universidad de Berkeley y autor del libro «Human Compatible”, considera que antes de implantar sistemas autónomos la IA debe preocuparse de consolidar su papel como facilitador de herramientas.
Con los agentes se podría repetir la historia. La posibilidad de que sus bondades se acaben torciendo es alta.
El analista Gary Markus confirma esa visión pero sugiere que los agentes, de momento, tienen poco recorrido: ¿cómo vamos a confiar en un agente autónomo si la IA generativa comete todavía tantos errores de bulto?, dice.
Según un estudio realizado por BetterUp Labs y Stanford Social Media Lab, en Estados Unidos los empleados se pasan un promedio de dos horas al día corrigiendo documentos generados por IA. Mientras se requiera tanto trabajo de verificación, las empresas difícilmente se atreverán a delegar acciones complejas a agentes autónomos que podrían provocarles auténticos estropicios.
En una primera fase Markus puede tener razón. Pero, más adelante, las cosas pueden complicarse. Ocurrirá cuando la IA funcione más o menos bien, nos lo parezca o nos hayamos resignado a sus alucinaciones y nos atrevamos a confiarle nuestras decisiones, convencidos una vez más, de que la pericia técnica es sinónimo de bondad.
Joan Rosés