Bombardeo atómico sobre Japón. Agosto de 1945

¿Riesgo, qué riesgo?

0 Shares
0
0

Expertos de prestigio mundial alertan que la inteligencia artificial supone una grave amenaza para el futuro de la humanidad. ¿Es una exageración? Tal vez no, pero la sociedad está muy lejos de percibir el peligro

 

Una carta de finales de mayo firmada por la crème de los investigadores y empresarios mundiales de IA dice textualmente que “mitigar el riesgo de extinción a causa de la IA debería ser una prioridad mundial junto con otros riesgos como las pandemias y la guerra nuclear”.

Ha habido reacciones de todo tipo. Desde quienes apoyan la declaración a quienes la consideran exagerada o no entienden cómo los mismos que están provocando el riesgo alertan de él.

Que la IA entraña riesgos lo empiezan a temer las autoridades, sobre todo las europeas que basan la próxima nueva legislación IA Act en la identificación y graduación del riesgo. ¿Pero tan grave es la amenaza? ¿Está realmente en juego nuestra extinción? 

El manifiesto equipara la gravedad de los efectos de la IA a los de la guerra nuclear o la pandemia. Eso significa que una IA descontrolada podría causar millones de muertos o incluso la desaparición de la humanidad. 

Sabemos que las armas nucleares o las pandemias pueden devastar el mundo. Hiroshima, Nagasaki, la Covid son pruebas palpables. De la IA, en cambio, sólo tenemos conjeturas y, de momento, la opinión pública está muy lejos de percibir que la IA pueda provocar efectos de esa magnitud.

A diferencia de otras amenazas, la IA se está desplegando en un ambiente de euforia y fascinación. La IA nos ayuda a escribir, a dibujar, a crear películas, a elaborar código informático, a identificar tumores y enfermedades, a organizar la movilidad de las ciudades, a mejorar la productividad de la industria, el campo… La investigación y el desarrollo de la IA se han convertido en los mayores vectores de crecimiento económico y poder político por el que compiten las grandes potencias en una carrera en la que nadie quiere quedar atrás. Los proyectos basados en IA se subvencionan con ingentes cantidades de dinero público. Las grandes corporaciones tecnológicas pugnan por dominar y acelerar el desarrollo de la IA.

En ese contexto, ¿cómo vamos a ser capaces de percibir el peligro? Si desde todos los ángulos se nos estimula a ser agentes o usuarios entusiastas de la IA, si según todos los mensajes que nos llegan la IA es el futuro, ¿cómo asumir que también debemos temerla? ¿Cómo acelerar y frenar a la vez?

 

La mentira y la manipulación, un riesgo demasiado etéreo

Escojamos cuatro de los principales riesgos que se atribuyen a la IA: mayor capacidad de manipular la verdad y debilitar la convivencia democrática, más destrucción de puestos de trabajo, mayor eficacia de la ciberdelincuencia y aumento de la inseguridad en el mundo digital y mayor letalidad del armamento moderno.

Con las dos últimas (ciberdelincuencia y armamento) no debería costarnos percibir el riesgo. Con la supuesta destrucción de puestos de trabajo todavía es pronto saberlo aunque ya se manifiestan los primeros efectos en algunos sectores. Pero con la manipulación de la verdad, ¿dónde está el riesgo? 

¿Cómo percibir que la propagación de la mentira es un riesgo grave para la convivencia si lo mejor de nuestra sociedad vive instalado en ella?

Hemos ido construyendo un mundo en el que la desinformación y las exageraciones forman parte de la cotidianidad. Buena parte de la actividad política y de la comunicación empresarial normalizan que la verdad se pueda desvirtuar en favor de los intereses que defiende cada cual. ¿Cómo percibir que la propagación de la mentira es un riesgo grave para la convivencia si lo mejor de nuestra sociedad vive instalado en ella?

Y en el caso de que decidiéramos realmente combatir la manipulación, ¿cómo hacerlo?

A finales del mes pasado, durante el Foro para la Información y la Democracia, diversos grupos de la sociedad civil pidieron crear un Observatorio sobre la Información y la Democracia, un grupo similar al IPCC sobre el cambio climático. Otra iniciativa parecida promueve crear un Panel Internacional sobre el Entorno de la Información

El problema es que “el IPCC funciona (más o menos) porque se basa en datos incontrovertibles. Las temperaturas están subiendo, punto. Esa evidencia es mucho más difícil de alcanzar cuando se trata de ciencias sociales, donde las diferencias culturales, lingüísticas y políticas pueden marcar diferencias de percepción. Las redes sociales son inherentemente desordenadas. Obtener evidencias y llegar a conclusiones partiendo además de un acceso limitado a los datos de las plataformas es una tarea difícil, si no imposible”, dice Mark Scott, corresponsal jefe de tecnología de la revista Político.

 

Lejos de la trazabilidad nuclear

A raíz de la carta que alerta del riesgo de extinción y compara su gravedad con la guerra nuclear, se han publicado algunos artículos que proponen adoptar con la IA medidas similares a las que rigen para controlar la energía atómica a nivel mundial. Un artículo publicado en Technology Review dice: 

“Las plantas de energía nuclear tienen miles de páginas de documentos para probar que el sistema no causa daño a nadie. Lo más importante que la comunidad de IA podría aprender del riesgo nuclear es la importancia de la trazabilidad: poner cada acción y componente bajo el microscopio para analizarlos y registrarlos con meticuloso detalle.”

 

Planta de energía nuclear en Cattenom, Francia. Foto Stefan Kühn. Wikimedia Commons

 

Con la IA, el problema está en que esa trazabilidad es imposible, al menos de momento. 

“Las empresas de IA ni siquiera tienen una comprensión completa de los conjuntos de datos que se han incluido en sus algoritmos, y no entienden del todo cómo los modelos de lenguaje de IA producen los resultados que producen”, reconoce Toby Shevlane, científico investigador de DeepMind y autor principal de la carta.

Si incluso quienes desarrollan la inteligencia artificial no saben del todo lo que se traen entre manos ¿cómo podremos concretar los riesgos y trasladarlos con claridad a la opinión pública?

Si con el cambio climático, de una gravedad evidente sustentada en datos y en consensos científicos, todavía andamos racaneando con las decisiones políticas y los comportamientos individuales, ¿cómo incorporamos la IA a la primera línea de las preocupaciones cuando apenas la conocemos? 

Los guionistas de cine y televisión norteamericanos han sido pioneros en incorporar a sus reivindicaciones sindicales cláusulas de protección por los posibles efectos de la IA en sus trabajos, pero pocos días antes de comenzar la huelga, la mayoría se reía cuando en las asambleas alguien planteaba esa necesidad.

Evitar el peligro depende, primero, de que percibamos claramente el riesgo. Para que esa percepción arraigue nos enfrentamos a dos problemas centrales: que los desarrolladores de la IA entiendan las consecuencias de lo que hacen y que el mensaje que se traslade a la sociedad sea unívoco. Y estamos lejos de ambas cosas.

Mientras tanto, indiferentes a los mensajes que alertan del cataclismo, la privacidad se va erosionando, la desinformación encuentra nuevas herramientas y las soluciones automatizadas repletas de sesgos y “alucinaciones” se extienden. Éste es el riego.

Joan Rosés

1 comments
  1. Estimado Joan. Te felicito por la claridad de tus razonamientos y la fuerza y transparencia de tu exposición. Remarcar los peligros derivados de la incompleta visión y conocimiento que los que la están creando y desarrollando tienen de ella.
    Muy acertada la comparación con los avatares del cambio climatico. Me parece que, como tú haces se han de tener muy en cuenta los peligros que lleva dentro el desarrollo de una materia tan nueva y tan amplia en los campos que caen en su espacio e influencia. Gracias Joan. Un abrazo muy fuerte y muchas felicitaciones. Enhorabuena.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *