Foto Benjamin Davies en Unsplash

Turbulencias invisibles

0 Shares
0
0

Los posibles riesgos extremos de la inteligencia artificial permanecen inadvertidos. Se publican algunas alertas pero resulta muy difícil percibirlos en medio de tanta aceleración y entusiasmo

 

Una turbulencia extrema que nadie advirtió, ni los pilotos ni los radares, provocó hace unos días que un avión de Singapore Airlines cayera bruscamente 1800 metros y provocara la muerte de una persona y más de 70 heridos. 

Fue algo muy raro. Habitualmente las turbulencias severas se detectan y pueden evitarse. Y aunque hubiera que atraversarlas, los aviones disponen de suficientes medidas de seguridad. Cada día vuelan seis millones de personas en más de cien mil vuelos y muy pocas veces suceden accidentes.

En los ámbitos de la ciencia y de la técnica en los que advertimos riesgo directo para la vida humana lo normal es aplicar medidas de seguridad estrictas. En la aviación, por supuesto, pero también con la energía nuclear, la fabricación y distribución de productos químicos, la alimentación, los medicamentos… Eso no impide que a veces ocurran imprevistos. No todo es previsible, sobre todo cuando forzamos la máquina, cuando consciente o inconscientemente alteramos las condiciones de nuestro entorno (el cambio climático tiene algo que ver con la frecuencia e intensidad de las turbulencias extremas) o adoptamos a toda prisa innovaciones no suficientemente contrastadas. 

A menos riesgo aparente, menos seguridad

En los ámbitos en que el riesgo aparentemente es menor, las medidas de seguridad se reducen o incluso desaparecen. En algunos se relajan las prevenciones a pesar de que desconocemos el nivel de riesgo al que nos enfrentamos. Un ejemplo son las escasas salvaguardas con la que se ha implantado la digitalización radical de la economía y la vida social. Menos de las que, probablemente, aconsejaría su nivel de riesgo. 

Con la inteligencia artificial esta ocurriendo lo mismo. Sea porque lo que prima es la rapidez de desarrollo ante la competencia descarnada en la que se han enzarzado las grandes empresas, sea porque la eclosión de la IA generativa todavía es muy reciente, la realidad es que la IA avanza sin apenas autocontrol ni leyes específicas que la regulen. En Europa todavía se tardará un par de años en implantar la ley aprobada recientemente. 

OpenAI, la empresa que lidera el desarrollo de la IA generativa en el mundo, acaba de desmantelar el departamento de seguridad. Tampoco el resto de empresas competidoras pueden alardear de sus garantías. Los investigadores dedican poco tiempo a ese tema. Se estima que sólo entre el 1% y el 3% de las publicaciones sobre IA tratan sobre seguridad.

Pero el factor determinante que motiva la carencia de protecciones es que no existe percepción real de riesgo. Hay, sí, ciertos temores sobre el impacto laboral, la protección de los derechos de propiedad intelectual o el aumento de la ciberdelincuencia. Hay dudas sobre la protección de la privacidad o los efectos que pueda tener en la desinformación. Pero conciencia de que la inteligencia artificial pueda suponer un grave peligro para la sociedad o incluso para la vida humana, no la hay.

¿Debería haberla? ¿Exageran quienes advierten de que el riesgo es muy superior al que nos imaginamos?

Catálogo de fechorías

Algunas prácticas deberían alertarnos. La revista Technology Review del MIT acaba de publicar un artículo en el que denuncia el aumento del cibercrimen gracias a la IA.

Phishing. El mayor caso de uso de la IA generativa entre los delincuentes es el phishing, que trata de engañar a las personas para que revelen información confidencial. 

Jailbreak. Las empresas de inteligencia artificial han implementado salvaguardas para evitar que sus modelos generen información peligrosa (cómo fabricar una bomba, cómo provocar un atentado…) El jailbreak permite manipular el sistema de inteligencia artificial para generar resultados que violen esas salvaguardas.

Doxxing. Los modelos de lenguaje de IA son también una herramienta perfecta para el doxxing, una técnica que permite desvelar información privada aunque esté protegida, como el origen étnico, la ubicación de una persona y otros datos sensibles, induciéndolos a partir de simples conversaciones con un chatbot. 

Contra el avance desenfrenado de la IA

También estos días, 15 investigadores y académicos internacionales de primera línea han publicado un manifiesto en la revista Science en el que denuncian los riesgos extremos de la IA y plantean algunas medidas para evitarlos. Se trata de pioneros de la IA y premios Turing como Geoffrey Hinton o Yoshua Bengio, el historiador Yuval Noah Harari o Daniel Kahneman, premio Nobel recientemente fallecido, entre otros. Dicen:

Junto con las capacidades avanzadas de la IA vienen riesgos importantes. Los sistemas de IA amenazan con amplificar la injusticia social, erosionar la estabilidad social, permitir actividades criminales a gran escala y facilitar la guerra automatizada, la manipulación masiva personalizada y la vigilancia generalizada”.

Sobre los nuevos agentes IA, que cada vez cuentan con mayor autonomía, advierten que podrían amplificar muchos riesgos, crear otros nuevos y facilitar la actividad a los actores malintencionados. 

“Si los sistemas autónomos de IA persiguen objetivos indeseables, es posible que no podamos mantenerlos bajo control. Sin precauciones suficientes, podemos perder irreversiblemente el control de los sistemas autónomos de IA y hacer que la intervención humana sea ineficaz. El cibercrimen, la manipulación social y otros daños podrían aumentar rápidamente. Este avance desenfrenado de la IA podría culminar en una pérdida de vidas y de la biosfera a gran escala, y en la marginación o extinción de la humanidad.”

Y añaden que incluso los desarrolladores bien intencionados pueden crear inadvertidamente sistemas de IA que persigan objetivos no deseados. 

A pesar de la gravedad de sus advertencias y del prestigio de quienes las hacen, costará que el riesgo se perciba. Las posibilidades de frenar el desarrollo desbocado de una tecnología supuestamente bienintencionada que estimula la economía y fascina a los usuarios, que avanza en medio de una feroz competencia geoestratégica y con una ingente cantidad de inversiones, son, hoy por hoy, escasas.

Las turbulencias son todavía invisibles, pero algunos radares ya emiten señales.

Joan Rosés

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *