La nueva generación de inteligencia artificial prescinde de mecanismos de supervisión humana y acelera la delegación de funciones en las máquinas
Pendientes de asimilar la avalancha de herramientas de inteligencia artificial generativa, se acerca otra oleada: la de los agentes IA.
Los asistentes avanzados o agentes IA vienen a ser “entes artificiales” capaces de actuar de forma autónoma a partir de unas indicaciones de partida y en función de los datos de nuestro historial. No se limitan a responder preguntas o a hacer previsiones sino que pueden ejecutar tareas sin apenas supervisión humana. De momento, se orientan a tareas simples como concertar citas, planificar un viaje, reservar vuelos y hoteles, escribir correos electrónicos… pero el objetivo es ir asumiendo más complejidad.
Según Google Deepmind, los agentes IA podrían ser la nueva forma de relacionarnos con lo digital, la interfaz del futuro, mucho más potente que la navegación web o las aplicaciones de móvil.
Las grandes tecnológicas han iniciado la batalla por el dominio de este ámbito. Los planes de OpenAI pasan, parece ser, por convertir ChatGPT en un asistente personalizado al que cada vez haya que darle menos instrucciones. Un eslabón más hacia la inteligencia artificial general a la que aspiran.
Google presentó esta semana el proyecto Astra y hace una semanas seis nuevos agentes para atención al cliente y un kit de desarrollo de agentes denominado Vertex AI Agent Builder. En paralelo, tiene en marcha varios proyectos. Uno es Smalville, un mundo virtual en miniatura similar a los Sims, donde 25 agentes IA actúan de forma independiente siguiendo un comportamiento acorde al que seguirían agentes humanos. Objetivo: analizar reacciones, detectar inconsistencias y extraer datos de sus interacciones.
Otro proyecto es SIMA, un agente IA preparado para actuar en entornos virtuales 3D como los videojuegos. Ha sido entrenado para realizar más de 600 tareas e interactuar de forma autónoma con jugadores humanos o artificiales en cualquier situación. Los videojuegos ofrecen un buen entorno para desarrollar y probar agentes que después pueden ser incorporados a otros ámbitos.
“Estamos invirtiendo mucho en esa dirección y me imagino que otros también lo están haciendo”, reconoció hace poco Demis Hassabis, CEO de Deepmind.
También centenares de startups y laboratorios están trabajando en agentes IA. Este repositorio de Github agrupa a los más destacados.
Y, por supuesto, no hay que olvidar a los fabricantes de vehículos autónomos que, aunque no consiguen despegar, son la muestra más sofisticada de agentes IA orientados a sustituir el comportamiento humano, en este caso la conducción.
Los errores no siempre son un freno
Los promotores de la IA confían en que los modelos actuales de IA irán mejorando y aprendiendo de sí mismos y de nuestros datos para que los futuros agentes ganen autonomía y puedan tomar decisiones por su cuenta, resolver las tareas intermedias que separan un propósito de su meta, coordinarse con otros agentes, adaptarse a situaciones y entornos diversos y ajustar su comportamiento a medida que vayan “aprendiendo”.
Hay mucho dinero dispuesto para los agentes IA pero también cierto escepticismo sobre su solvencia. El profesor norteamericano Gary Marcus advierte que la gran cantidad de errores y alucinaciones que se producen en esta etapa inicial de la IA generativa sólo se consiguen mitigar, en parte, gracias a la supervisión humana. En la medida que los agentes prescinden de esa supervisión, los errores pueden multiplicarse y el fiasco ser descomunal.
“Con nuestro nivel actual de preparación tecnológica, darle las llaves del castillo a un LLM me parece una locura. Los agentes de IA son un sueño; algún día pueden resultar útiles. Sin embargo, el campo de la IA aún no ha aprendido lo suficiente para que sea remotamente confiable. Dudo que en los próximos años alcancemos la madurez suficiente”. (Marcus)
Pero los errores no siempre son un impedimento para que una tecnología se implante: la acelerada carrera de la IA generativa lo demuestra.
Una buena campaña orientada a la fascinación acompañada de estudios que confirmen su supuesta productividad podría provocar una oleada de entusiasmo hacia los agentes IA aunque no fueran del todo fiables.
No sería la primera vez que eso ocurre. Un reciente estudio advierte que la calidad del código informático ha disminuido desde que su escritura está siendo delegada a la IA. Aún así sigue aumentando el uso de aplicaciones IA que escriben código. Con los agentes puede pasar lo mismo .
Ya en 2020, la organización Algorithm Watch alertaba del riesgo de implantar sistemas gobernados por algoritmos para temas tan delicados como concesión de ayudas públicas, vigilancia policial, reconocimiento facial, selección de empleo… No cesan las denuncias por sus errores y sesgos, pero, a pesar de las deficiencias, su implantación ha crecido.
La responsabilidad se diluye
El reto que los agentes IA plantean es de envergadura.
La propia Deepmind acaba de publicar un extenso trabajo en el que identifica los principales riesgos de lo que ellos denominan «asistentes IA avanzados». Concluyen, por ejemplo, que:
- En la medida que se delega el control de muchas acciones, la privacidad puede verse mucho más afectada.
- Los mecanismos de propagación de la desinformación pueden sofisticarse.
- Los agentes IA pueden no estar alineados con los intereses de los usuarios, ni atender a los valores de la sociedad, incluso imponer valores o criterios ajenos.
- Pueden ser más vulnerables a ataques informáticos o proclives a su uso para fines maliciosos.
Y todo ello bajo un manto de opacidad aún más espeso. En la medida que los agentes artificiales ganan autonomía, las personas perdemos capacidad de supervisión.
En un mundo en el que la tecnología va adquiriendo mayor agencia, la atribución de responsabilidades se hace más difícil.
Hace apenas unos días un Tesla que circulaba cerca de Seattle, al parecer con el sistema Autopilot activado, embistió a un motociclista que falleció horas después. ¿Quién tuvo la culpa? ¿El conductor? ¿Los fabricantes de Autopilot? La Autoridad norteamericana de Tráfico ha identificado al menos 13 accidentes mortales en los que “el previsible mal uso del sistema Autopilot por parte del conductor tuvo, aparentemente, algo que ver». ¿Falló el sistema? ¿Fallaron los conductores? ¿Confiaron demasiado en un sistema mecánico?
Si la tecnología actual ya difumina la responsabilidad de las acciones que ejecuta, la implantación masiva de agentes IA puede dificultar todavía más su atribución.
Pueden resultar muy sugerentes, aliviarnos supuestamente de trabajos poco gratificantes y, en teoría, aumentar la productividad, pero también serán un eslabón determinante en el proceso de trasvase de funciones y sustitución de lo humano que inspira el desarrollo de la inteligencia artificial.