Collaterallogo
29 de mayo de 2024

- La IA nos expone a unos riesgos que no llegamos a percibir en toda su dimensión.
- Prolifera la idea de que la IA está alcanzado la "sensibilidad humana". Es obvio que no.
- Desinformación en Europa: Rusia tiene la culpa, pero no toda.

Turbulencias invisibles

Una turbulencia extrema que nadie advirtió, ni los pilotos ni los radares, provocó hace unos días que un avión de Singapore Airlines cayera bruscamente 1800 metros y provocara la muerte de una persona y más de 70 heridos. Fue algo muy raro. Habitualmente las turbulencias severas se detectan y pueden evitarse.

En los ámbitos en que el riesgo aparentemente es menor, las medidas de seguridad se reducen o incluso desaparecen. Ha ocurrido con la digitalización de la economía y la sociedad y está ocurriendo con la inteligencia artificial. El factor determinante de la carencia de protecciones es que no existe una percepción real del riesgo.

Algunos radares ya avisan de la turbulencia hacia la que nos dirigimos. Quince investigadores y académicos internacionales de primera línea acaban de publicar un manifiesto en el que advierten que "el avance desenfrenado de la IA podría culminar en una pérdida de vidas y de la biosfera a gran escala, y en la marginación o extinción de la humanidad.”

Pero a pesar de la gravedad de la advertencia y del prestigio de quienes la hacen, costará que el riesgo se perciba. Las posibilidades de frenar el desarrollo desbocado de una tecnología supuestamente bienintencionada que estimula la economía y fascina a los usuarios, que avanza en medio de una feroz competencia geoestratégica y con una ingente cantidad de dinero, son, hoy por hoy, escasas. Las turbulencias son todavía invisibles.

La inseguridad es inherente a los grandes modelos de lenguaje (LLM)

El problema general de mezclar datos con instrucciones es la raíz de muchas de las vulnerabilidades de seguridad informática de los modelos de inteligencia artificial.
Cualquier aplicación LLM que procese correos electrónicos o páginas web es vulnerable. Los atacantes pueden incrustar instrucciones maliciosas en imágenes y videos. Cualquier aplicación LLM que interactúe con usuarios que no sean de confianza (pensemos en un chatbot integrado en un sitio web) será vulnerable a los ataques. Es difícil pensar en una aplicación LLM que no lo sea. Communications of the ACM

Cuando la IA funcione bien

Rodearnos de sistemas de inteligencia artificial eficientes y fiables tampoco será inocuo. Urge analizar los efectos de una inteligencia artificial normalizada.
Cuando la IA funcione bien

Daron Acemoglu: "Podemos tener una IA orientada al ser humano pero serios obstáculos lo impiden"

El profesor del MIT analiza cuatro barreras que deberían superarse para que el desarrollo de la inteligencia artificial se alinee con las necesidades del ser humano. "La IA conduce a un exceso de automatización y eso es algo muy grave".
Daron Acemoglu:  "Podemos tener una IA orientada al ser humano pero serios obstáculos lo impiden"

La IA no es sensible aunque lo parezca

Proliferan los argumentos que consideran que la IA ha alcanzado un nivel de sensibilidad "casi" humana. Se basan en que un modelo de lenguaje puede llegar a expresar que "tiene hambre" o "sentir dolor" y no tenemos la capacidad de averiguar si es cierto.

Fei-Fei Li y John Etchemendy, directores del Institute for Human-Centered Artificial Intelligence en la Universidad de Stanford, rebaten esa teoría.

"Lo único común con un humano es lo que dicen, el hecho de que un LLM puede producir la cadena de sílabas "tengo hambre". Pero ahí termina la similitud. De hecho, el LLM no tiene cuerpo y, por lo tanto, ni siquiera es el tipo de cosa que pueda tener hambre.
Si el LLM dijera: "Tengo un dolor agudo en el dedo gordo del pie izquierdo", ¿concluiríamos que tenía un dolor agudo en el dedo gordo del pie izquierdo? ¡Por supuesto que no, no tiene dedo gordo del pie izquierdo! De la misma manera, cuando dice que tiene hambre, podemos estar seguros de que no es así, ya que no tiene el tipo de fisiología necesaria para tener hambre".

Con la IA ocurre algo curioso. El sentido común no basta. Hasta los expertos en IA de mayor prestigio tienen que intervenir para confirmar obviedades. Time

Desinformación: Rusia no tiene toda la culpa

A las puertas de las elecciones europeas se prodigan los mensajes de preocupación por las campañas de desinformación, alentadas al parecer por organizaciones vinculadas al Kremlin. Eso es, por lo menos, lo que reiteran las autoridades europeas.
Mark Scott, editor de la revista Político, matiza esa convicción. Aunque no duda de las intencionalidades de Rusia, dice:

"Encuentro preocupante la histeria en Europa sobre la desinformación rusa. No es que no crea que exista y en abundancia. Lo que pasa es que al sugerir que el Kremlin está detrás de todos los males (y hay muchos) que afronta Europa, suceden dos cosas.

En primer lugar, se le da demasiado crédito a Moscú por su capacidad para influir en el continente. Lo que hemos visto después de dos años de conflicto en Ucrania es que los elogiados comerciantes de desinformación de Rusia son bastante torpes y a menudo se basan en viejos tropos que sólo los fanáticos más acérrimos del Kremlin creerían.

En segundo lugar, no reconoce que casi toda la desinformación y las falsedades difundidas en Europa y en otros lugares, son de cosecha propia. ¿Esas cuentas polacas de TikTok que acusan a inmigrantes ucranianos de violar a mujeres locales? De cosecha propia. ¿Esos usuarios españoles de Twitter que afirman que la UE está pagando a los inmigrantes para que entren en bloque? De cosecha propia." Político

Enfoque equivocado contra la desinformación

Las “soluciones” a la desinformación todavía parten de una ideal de ser humano sin antecedentes ni vínculos sociales, una figura racional y ética que sopesa cuidadosamente todos los hechos, llega a “la verdad” y contribuye a un discurso público más civilizado.
Sin embargo, la gente real actúa basándose en corazonadas, lealtades y rencores. Para combatir la desinformación, debemos partir de este ser humano que realmente existe, alguien que es emocional, faccional y friccional. Scientific American
// Resumen de Ricard Ruiz de Querol
LEER +
Michel Desmurget, el neurocientífico francés que alertó de los peligros de las pantallas para niños y adolescentes en su bestseller La fábrica de cretinos digitales, vuelve con un alegato en favor de la lectura.

"Cientos de estudios demuestran que la lectura por placer tiene un impacto único en el aprendizaje cognitivo de los niños. Fomenta el lenguaje, los conocimientos generales, la creatividad, la atención, la escritura, la expresión oral, la autocomprensión y la empatía. No hay herramienta más útil para el desarrollo cerebral que un libro."

El remedio contra la fábrica de cretinos digitales lo tenemos a mano.
Península editores

Los niños necesitan música, pero toda pasa por los móviles

Para los niños y adolescentes actuales la música sólo es accesible a través del móvil. Hace unos años había dispositivos diversos: tocadiscos, cadenas wifi, televisión, walkman, Ipod... Ahora, el móvil concentra la vía de acceso a la música. Es un todo o nada. O tienen acceso a todas las distracciones del móvil o se retrasa su acceso a la música. The Guardian

+ TEMAS

- Algoritmos y democracia. Informe de Daniel Innerarity para la Unesco
- La tiranía de las reseñas. Ethic.es
- La autoría está en peligro. Un congreso reúne en Valencia a 130 especialistas en derechos de autor. El Confidencial
- La función Recall de Microsoft hace saltar las alarmas. La privacidad está en sus manos. Xataka
linkedin twitter 
Email Marketing Powered by MailPoet