Yuval Noah Harari: “La inteligencia artificial puede ser una tecnología de dominación”

0 Shares
0
0

Diálogo entre el popular historiador israelí y Fei-Fei Li, co-directora del  Human-Centered Artificial Intelligence de Stanford, sobre el futuro de la inteligencia artificial.

Estas fueron algunas de sus intervenciones más destacadas.

No es una crisis tecnológica sino filosófica

Harari: (11,08) El marco filosófico del mundo moderno que se estableció en los siglos XVII y XVIII en torno a ideas como la autonomía humana y la libertad individual está siendo cuestionado como nunca lo había estado. No por las ideas filosóficas, sino por las tecnologías prácticas. Comprobamos que cada vez más preguntas que solían pertenecer a los departamentos de filosofía se han trasladado a los de ingeniería. Y eso asusta, en parte porque, a diferencia de los filósofos que son personas extremadamente pacientes que pueden discutir algo durante miles de años sin llegar a ningún acuerdo, los ingenieros no esperan. Pero incluso si los ingenieros estuvieran dispuestos a esperar, los inversores que hay detrás de ellos, no. Eso significa que no tenemos mucho tiempo.  

(…)

Fei-Fei Li: Siento mucha envidia de los filósofos porque pueden proponer preguntas pero no tienen que responderlas. Como ingeniera y científica, siento que somos nosotros quienes debemos resolver la crisis (…)

(17,39) Podemos replantear la educación, la investigación y el diálogo de la inteligencia artificial y la tecnología en general centrándonos en el ser humano. Probablemente no hallaremos una solución inmediata, pero podemos involucrar a humanistas, filósofos, historiadores, científicos políticos, economistas, especialistas en ética, eruditos jurídicos, neurocientíficos, psicólogos y muchas otras disciplinas.

Dos distopías

Harari: (23.44) Nos hallamos ante dos distopías distintas que encajan entre sí. La distopía del capitalismo de vigilancia en la que no hay un dictador como el de Gran Hermano pero en que, cada vez más, las decisiones las irá tomando un algoritmo, y no sólo decisiones sobre qué comer o dónde comprar, sino decisiones sobre dónde trabajar, dónde estudiar, con quién salir, con quién casarse y a quién votar. Me gustaría saber si hay algo en los seres humanos que, por definición, no se pueda descifrar. Podemos llegar a un punto en el que un algoritmo tome esas decisiones mejor que yo. Esta línea de distopía nos es un poco más familiar en esta parte del mundo. Pero luego tienes la distopía propia de un régimen totalitario basada en un sistema de vigilancia total. Algo así como los regímenes totalitarios del siglo XX pero aumentados con sensores biométricos y capacidad para realizar un seguimiento de todos y cada uno de los individuos las 24 horas del día. Es decir, lo que en los días de Stalin o Hitler era absolutamente imposible porque no tenían la tecnología, tal vez sea posible en 20 o 30 años.  

¿Es hackeable el amor?

Fei-Fei Li: (25,33) ¿Es hackeable el amor?

Harari: Si te refieres al amor filosófico griego o a la bondad amorosa del budismo, la pregunta tiene una respuesta complicada. Si te refieres a los rituales biológicos de cortejo de mamíferos, entonces creo que sí. Quiero decir, ¿por qué no? ¿Por qué el amor es diferente a cualquier otra cosa que esté sucediendo en el cuerpo?

Fei-Fei Li: Pero hay una parte de nosotros que está más allá del cortejo de los mamíferos, ¿verdad? ¿Es esa parte hackeable?

(….)

Harari: (29,46 No creo que las máquinas sientan amor. Pero no necesariamente necesitas sentirlo para hackearlo, monitorizarlo, predecirlo o manipularlo. Si aceptas que algo como el amor forma parte del proceso biológico, si crees que la IA puede brindarnos una atención médica maravillosa al poder monitorizar y predecir algo como la gripe o el cáncer, ¿qué es lo esencial? ¿Cuál es la diferencia entre la gripe y el amor en sentido biológico?

Tres principios fundamentales para mantener el optimismo

Fei-Fei Li: (32,42) A lo largo de su historia, la humanidad se ha enfrentado a mucha tecnología. Si dejamos la tecnología sin ninguna regulación, ni colaboración multinacional, ni reglas, ni leyes, ni códigos morales, tal vez no sólo hackee a los humanos sino que los destruya o los dañe de forma masiva. Pero en general, la perspectiva histórica nos demuestra que nuestra sociedad se ha ido moviendo hacia un estado más civilizado y controlado. Es importante mirar a la sociedad e invitar a personas diversas a este diálogo. (…) pero hay algunos problemas muy inmediatos: diversidad, privacidad, trabajo, cambios legales, geopolítica internacional… que es crítico abordar ahora.

Según Fei-Fei Li, la evolución de la IA debería centrarse en tres principios fundamentales: Invertir en una próxima generación de tecnología que responda a lo que deseamos desde un punto de vista humano (explicabilidad, comprensión de la toma decisiones de los algoritmos, menor dependencia de los datos…), incorporar una visión multidisciplinar de su desarrollo (ética, sociología, filosofía, historia…) y fomentar el desarrollo de tecnología orientada al bienestar general.    

Menos malos que los humanos

Harari: (36,28) No necesitamos que la IA nos conozca del todo, eso no sucederá nunca. Solo hace falta que la IA nos conozca mejor de lo que nos conocemos a nosotros mismos, lo cual no es muy difícil porque la mayoría de las personas no se conocen demasiado bien a sí mismas y con frecuencia cometen grandes errores en las decisiones críticas. Se trate de finanzas, de una carrera profesional o de una relación amorosa, las consecuencias de ceder la decisión a los algoritmos pueden ser terribles. Pero si son un poco menos terribles que las nuestras, les cederemos la decisión.

O eres matemático o no entiendes nada

Harari:(51,20) Algunas de las personas más inteligentes del mundo están creando modelos y herramientas enormemente complejas que la mayoría de las personas no pueden entender a menos que hayan estudiado economía y matemáticas durante diez años o más. Es un verdadero problema, es parte de la crisis filosófica de la que hablaba al principio. Disponemos de unas herramientas extremadamente inteligentes que son capaces de tomar mejores decisiones sobre nuestra atención médica o sobre nuestro sistema financiero pero no podemos entender qué están haciendo ni por qué lo están haciendo. Esto socava nuestra autonomía y nuestra autoridad. Como sociedad no sabemos cómo afrontar esta situación.

Ética para informáticos

Harari: (56,31) Deberíamos incorporar la ética al plan de estudios de los programadores. Hoy en día, las personas que trabajan en los departamentos de informática son quienes más necesitan tener un fondo de conocimiento ético. También las grandes corporaciones que están diseñando estas herramientas deben integrar en sus equipos personas con formación en cuestiones como la ética o la política, que piensen en términos de qué sesgos podríamos estar incorporando inadvertidamente en el sistema, o cuáles podrían ser las implicaciones culturales o políticas de lo que estamos construyendo.

Colapso potencial de economías y países enteros

Harari: (1,00,25) La inteligencia artificial puede ser una tecnología de dominación en el siglo XXI. No estamos hablando de competencia económica entre diferentes industrias textiles o petroleras, o de que un país decida que no le importa el medio ambiente en absoluto y se desarrolle aceleradamente mientras otros son mucho más responsables. Con la IA la situación es potencialmente mucho peor porque podría ser realmente una tecnología de dominación, y los países que se queden atrás podrían ser dominados, explotados, vencidos por los que avanzan.

Fei-Fei Li: Aunque estas perspectivas son alarmantes, esta tecnología cuenta con una amplia colaboración científica internacional que se utiliza para mejorar el transporte, la atención médica o la educación. Es un nuevo momento muy interesante que no hemos visto antes porque, si bien tenemos este tipo de competencia, también tenemos una colaboración masiva de la comunidad científica internacional sobre los usos beneficiosos y la democratización de esta tecnología.  

(…)

Harari: (1,11,16) Estamos hablando del colapso potencial de economías y países enteros que dependen de mano de obra barata y no tienen el capital educativo para competir en un mundo de IA. ¿Qué van a hacer estos países? Quiero decir si, por ejemplo, trasladas la mayor parte de la producción de, digamos, Honduras o Bangladesh a los Estados Unidos y Alemania porque los salarios humanos ya no forman parte de la ecuación y es más barato producir una camisa en California que en Honduras. Entonces, ¿qué va a hacer la gente allí? Podemos decir que habrá muchos más trabajos para los ingenieros de software, pero a los niños de Honduras no les estamos enseñando a ser ingenieros de software. Tal vez algunos podrán emigrar a los Estados Unidos, pero la mayoría de ellos no lo hará, ¿de qué vivirán? En la actualidad no tenemos las respuestas económicas y políticas a estas preguntas.

Colonización de datos

Harari: (1,13,57) Estamos viendo, por un lado, lo que podríamos llamar colonización de datos. El mismo modelo que vimos en el siglo XIX que tiene el centro imperial donde radica la tecnología avanzada: cultivan el algodón en India o Egipto, envían las materias primas a Gran Bretaña, producen las camisetas en la industria de alta tecnología del siglo XIX, en Manchester, envían las camisetas para venderlas a la India y arruinan a los productores locales. De alguna manera, está empezando a ocurrir lo mismo con la economía de datos. Se recolectan los datos en lugares como Brasil e Indonesia pero no se procesan allí. Los datos de Brasil e Indonesia se procesan en California o en el este de China.

(…)

Otra cosa a tener en cuenta es el resurgimiento de los muros de piedra: originalmente mi especialidad era la historia militar medieval. Así es como comencé mi carrera académica con las cruzadas, los castillos, los caballeros, etc. Y ahora, en la era de los cyborgs y la inteligencia artificial, están regresando los muros. Tenemos realidades virtuales, 3G, AI y, de repente, el problema político más candente es construir un muro de piedra, lo de más baja tecnología que puedas imaginar. ¿Cuál es el significado de un muro de piedra en un mundo de interconectividad? Realmente me asusta que haya alguna razón siniestra.

Collateral Bits
La sesión se celebró el 22 de abril de 2019 en el Memorial Auditorium de la Universidad de Stanford
Yuval Noah Harari nació en Haifa (Israel), doctor en Historia por la Universidad de Oxford y autor conocido por sus obras Sapiens, Homo Deus y 21 lecciones para el siglo XXI
Fei Fei Li es profesora de ciencias de la computación en la Universidad de Stanford y co directora del Human-Centered Artificial Intelligence Institute.
3 comments
  1. Dañoso puede ser el contenido que le den quienes cobren ventaja en I.A., perjudicial el envoltorio, casi como un juego ofrecen seducción y colonización de mentes y cerebros. Gracias por este trabajo.

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *