Photo credit: Garuna bor-bor on VisualHunt.com

Inteligencia artificial, a la espera del tsunami

0 Shares
0
0

Se aceleran los desarrollos de IA para aplicaciones concretas mientras siguen lejos los sistemas que competirán con la inteligencia humana.

Las informaciones sobre novedades en robótica, inteligencia artificial, algoritmos, coches autónomos… nos invaden con tanta frecuencia e intensidad que tenemos la sensación de estar a punto de ser arrastrados por un tsunami mientras estamos en la playa contemplando cómo se acerca a toda velocidad sin más opción que tomar unas cuantas fotos y compartirlas porque correr no sirve de nada.

¿Pero estamos tan cerca del tsunami como parece? Y en cualquier caso ¿estamos a tiempo de encauzar el oleaje?

Para calmar la ansiedad fuimos hasta el Cosmocaixa de Barcelona donde Ramón López de Mantaras, director del Instituto de Investigación en Inteligencia Artificial (IIIA) e Itziar de Lecuona, doctora en derecho y miembro del Comité de Bioética de Catalunya hablaban de Inteligencia humana vs Inteligencia artificial.

López de Mantaras es un reconocido experto internacional en Inteligencia Artificial y escucharlo siempre resulta  tranquilizante para los ansiosos del futuro o los temerosos del tsunami.

La tesis que expone recurrentemente podría resumirse así: “Estamos muy lejos de que lo que llamamos inteligencia artificial se parezca a la inteligencia humana y, por lo tanto, que los artefactos que incorporen algoritmos y autonomía se comporten como humanos y les sustituyan”.

A la inteligencia artificial le falta comprender por qué toma las decisiones (López de Mantaras)

En el ámbito de la Inteligencia Artificial se contemplan tres niveles. La IA específica: la que se aplica a soluciones concretas en ámbitos cerrados; la general, que emularía la inteligencia humana en todo tipo de terrenos; y la superinteligencia, que la superaría.

 

Ramón López de Mantaras

Hoy por hoy estamos en el primero de los niveles. La IA específica. Por lo tanto, las soluciones de Inteligencia artificial que se contemplan para los próximos diez o más años sólo son y serán eficientes en entornos cerrados para ejecutar acciones concretas. “A la inteligencia artificial le falta comprensión. No sabe por qué hace determinadas acciones ni toma unas decisiones en lugar de otras. Ha sido programada sólo para una función o un conjunto de funciones determinadas y además lo ha sido por voluntad de un ser humano. Los sistemas provistos de inteligencia artificial sólo son eficientes mediante parámetros que conocen. Previamente programados. Si surge un imprevisto o tropiezan con una novedad se bloquean, o lo que es peor, toman decisiones erróneas. Los llamados falsos positivos”, dice el profesor López de Mantaras.

Los sistemas de Inteligencia Artificial pueden combinarse entre sí a través de redes neuronales que simulan las conexiones cerebrales de un ser humano para multiplicar la velocidad, volumen y calidad de sus procesos, o incluso aprender y mejorar automáticamente su rendimiento, pero no son capaces de comprender la razón de sus decisiones.

En Inteligencia Artificial se habla del “olvido catastrófico”. Después de horas de entreno y de procesar millones de datos e imágenes, una red neuronal puede llegar a distinguir, por ejemplo, entre clases de perros, o incluso a un perro de un gato. Pero si de pronto decidiéramos entrenarlo para otra tarea se olvidaría de la anterior y volvería a confundir perros con gatos y ni siquiera sabría identificar a un perro. Olvido catastrófico. La contextualización, incluso a nivel básico, se vislumbra todavía en un horizonte muy lejano.

Somos pseudo anónimos (Itziar de Lecuona)

Itziar de Lecuona se mostró más preocupada por la deriva que está tomando el uso indiscriminado de los datos que alimentan la inteligencia artificial y por la opacidad de los algoritmos que la hacen funcionar. “La dignidad de las personas sólo se puede mantener mediante la protección de sus datos. Por ejemplo, el ámbito de la salud es un terreno muy apetecido. En primer lugar porque los datos dicen mucho de la persona y en segundo lugar porque los datos del sistema sanitario son muy buenos, precisos, contrastados y, por lo tanto, muy apreciados por los desarrolladores de inteligencia artificial, que almacenan gran cantidad de datos inútiles que deben depurar”.

Itziar de Lecuona

Los problemas que se derivan del acceso indiscriminado a la privacidad provienen de la impunidad con que  hasta ahora han actuado las plataformas digitales y de su capacidad para inferir información personal a partir del cruce con otros datos (Collateral Bits). Según Itziar de Lecuonasomos pseudo anónimos”.

Los problemas de uso se originan por la opacidad y el sesgo que toman los algoritmos en sus decisiones en función de los datos limitados de qué disponen y de la programación, sesgada o no, que se haya implantado con ellos.

López de Mantaras contó dos ejemplos sobre el sesgo que toman algunos dispositivos.

1) En unos lavabos públicos dotados con un sensor óptico programado, un usuario pone las manos debajo del grifo y no sale agua. Entra un segundo, hace lo mismo y sale el chorro sin problemas. El primero usuario es de raza negra.

2) Un reciente modelo de Iphone disponía de una cámara fotográfica que, para evitar fotografiar a nadie con los ojos cerrados, retenía el disparo si el sujeto fotografiado parpadeaba. No conseguía fotografiar a nadie con rasgos orientales.

Hay voracidad por los datos, muchos de ellos inútiles

El análisis de grandes cantidades de datos es uno de los requisitos indispensables para alimentar los sistemas de inteligencia artificial. Pero, en la actualidad, se ha desatado una voracidad por los datos que no se corresponde con la mejora que aportan a los desarrollos. El usuario importa porque es el sujeto que genera el negocio, sus datos contribuyen a maximizarlo y además son modelizables. Pero cuantos más datos se tienen de él más recursos se emplean para discriminarlos. Sólo los datos veraces y contrastados aportan valor. Por esa razón, datos sensibles como los que aporta el sistema sanitario son tan codiciados.

El uso masivo de datos es un globo que se desinflará” predijo López de Mantaras. “El programa Alphago que hace unos años ganó al campeón del mundo de Go no utilizó una cantidad ingente de datos sinó una combinatòria de datos y técnicas”.

Juego de Go Photo credit: Musi_Zhang on VisualHunt.com

Declaración de Barcelona

Pero la Inteligencia Artificial plantea otros desafíos que van más allà del acceso y uso de los datos.

El coche autónomo, la primera herramienta “inteligente” que probará (y desafiará) la eficiencia de la Inteligencia Artificial en entornos abiertos, o la implantación de reconocimiento de imágenes en las cámaras de seguridad, por poner dos ejemplos, plantean diversos problemas éticos que hay que tener en cuenta a la hora de su regulación. 

En los últimos dos años, los gobiernos de una veintena de países han elaborado estrategias nacionales sobre Inteligencia Artificial. La Unión Europea también se plantea regular la Inteligencia Artificial mediante una normativa que ponga límites a los desarrollos y permita exigir responsabilidades.

Barcelona ha sido una de las ciudades pioneras en plantear el debate. A primeros de 2017, científicos y profesionales locales consensuaron la llamada Declaración de Barcelona. Sus puntos esenciales son.

Prudencia: a pesar del desarrollo de la inteligencia artificial y sus posibilidades, muchos problemas fundamentales aún no están resueltos y requerirán avances radicales. Incluso es posible que algunos problemas nunca se resuelvan.

Fiabilidad: los nuevos métodos deben ser verificados antes de estar disponibles. La nueva agencia para la robótica y la inteligencia artificial creada por el Parlamento Europeo podría asumir esta responsabilidad.

Transparencia: cuando un sistema de inteligencia artificial toma una decisión, las personas afectadas deben poder recibir una explicación de por qué se ha tomado esa decisión. Sin embargo, muchas de las técnicas que “explican” los procesos internos del sistema aún no están bien desarrolladas.

Responsabilidad: Existe una preocupación creciente por los sistemas de mensajería automática o chat-bots que operan en internet y son capaces de manipular a la opinión pública. Hay que dejar claro a los usuarios si los mensajes proceden de un sistema de inteligencia artificial.

Autonomía restringida: los sistemas de inteligencia artificial, cuando están incluidos en sistemas físicos como los coches autónomos, tienen el potencial de actuar a través de sus decisiones en el mundo real. Hay que tener reglas claras que limiten su autonomía, así como aclarar quién es el responsable en caso de fallo.

El papel humano: el entusiasmo por la inteligencia artificial da lugar en ocasiones a la impresión de que la inteligencia humana ya no será necesaria. Esto es un error importante. Todos los sistemas dependen de la inteligencia humana, por lo que la experiencia de las personas debe seguir siendo enseñada, desarrollada y ejercida.

A toda velocidad

Mientras tanto, los desarrollos de inteligencia artificial específicos avanzan a toda velocidad y se implantan en multitud de dispositivos, asociados a la robótica, a los sistemas de seguridad por reconocimiento de imagen, a los asistentes domésticos, a la conducción autónoma…

Parece que estamos lejos del tsunami y a tiempo de enfocar el debate y legislar en consecuencia, pero las ingentes cantidades de dinero que se invierten en desarrollos de Inteligencia Artificial, con la China a la cabeza, hacen temer que, tarde o temprano, el tsunami llegará.

Collateral Bits
Fotografia de Cabecera: Photo credit: Garuna bor-bor on VisualHunt.com /CC BY-NC-SA

¿Quieres conocer más efectos de la Inteligencia Artificial? Suscríbete a nuestra Newsletter

1 comments
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *