Foto Sincerely Media en Unsplash

Cuando la IA funcione bien

0 Shares
0
0

Rodearnos de sistemas de inteligencia artificial eficientes y fiables tampoco será inocuo. Urge analizar los efectos de una inteligencia artificial normalizada

 

El debate sobre la IA enfrenta dos visiones. La de quienes ponen el foco en los riesgos actuales (la mayoría) y la de aquellos que defienden que lo importante es ocuparnos de un futuro que estará supuestamente dominado por la superinteligencia artificial.

La disciplina que denominamos ética de la IA se ocupa de lo urgente. Analiza y denuncia la falta de transparencia de los algoritmos, la sistemática reproducción de sesgos de género y raza, la facilidad para multiplicar la desinformación y el riesgo creciente al que están sometidos derechos como el de propiedad intelectual, privacidad y otros.

En contraposición, la visión futurista según la cual la inteligencia artificial general (AGI) superará a la inteligencia humana viene a decir que lo importante está por llegar. Lo de ahora es un juego de niños. Está liderada entre otros por Sam Altman, CEO de OpenAI, la empresa que ha roto los esquemas del desarrollo de la IA con ChatGPT, DALL-E y otros mecanismos generativos disruptivos.

Dos visiones que podrían ser compatibles si los futuristas enfriaran sus excesos visionarios y distópicos y evitaran distraernos de los problemas reales que está causando ahora la IA, y la ética de la IA ampliara el foco de sus preocupaciones.

 

Ética de lo no (tan) urgente

Entre la ética de lo urgente y el pensamiento distópico/ futurista hay un punto intermedio, hoy por hoy huérfano de análisis, que se plantea la siguiente pregunta: ¿qué ocurrirá cuando la IA funcione bien? (si es que algún día llega a hacerlo).

Sin desatender lo urgente, la ética de la IA y el pensamiento crítico debería ocuparse también del panorama al que nos conduce la IA cuando, sin pretensiones de substitución distópica, haya depurado una buena parte de sus deficiencias actuales y podamos confiar en ella. 

¿Daremos por bueno el funcionamiento de la IA si llegan a corregirse los errores y los sesgos, los algoritmos son realmente auditables, los deepfakes y manipulaciones son inmediatamente identificados y filtrados y los derechos a la privacidad, propiedad intelectual y otros están garantizados? Probablemente. Pero, ¿es eso posible?

Hay quien piensa que esa perfección no se alcanzará y que, por lo tanto, ese punto en el que ya se podrá confiar en la IA no acabará llegando. Lo dificulta la propia arquitectura de los grandes modelos de lenguaje. 

Primero porque basan su funcionamiento en la previsión estadística del futuro a partir de la recopilación y gestión de datos del pasado, un lastre estructural que impide alcanzar niveles suficientes de fiabilidad. 

Advierte Mark Bailey, experto en ciberinteligencia y ciencia de datos de la Universidad Nacional de Inteligencia en Washington que “a diferencia de los humanos, la IA no ajusta su comportamiento en función de cómo la perciben los demás. La representación interna del mundo que tiene la IA es en gran medida estática, determinada por sus datos de entrenamiento. Su proceso de toma de decisiones se basa en un modelo inmutable del mundo, imperturbable a las interacciones sociales dinámicas y matizadas que influyen constantemente en el comportamiento humano”.  

Y segundo porque muchos de sus mecanismos internos son impenetrables, y, en consecuencia, inexplicables e impredecibles. Si quienes desarrollan la IA no acaban de comprender su funcionamiento, ¿cómo podremos confiar los demás?

 

Adaptación a la máquina

La perfección tal vez no llegue pero eso no tiene por qué impedir que vayamos aceptando paulatinamente la convivencia con máquinas imperfectas y dando por buenas sus limitaciones. Por eso deberíamos empezar a preocuparnos no sólo de los errores de las máquinas sino de nuestra disposición a adaptarnos a ellos. 

¿Qué porcentaje de errores y mentiras generados artificialmente estaremos dispuestos a aceptar? ¿Cuántos accidentes de coches autónomos podremos asumir con normalidad? ¿Acabaremos asumiendo sin rechistar los procesos de selección de personal o la evaluación de exámenes realizados por máquinas que basan sus resultados en criterios opacos? ¿Nos resignaremos a que una máquina nos deniegue el crédito o nos bloquee la ayuda de una administración sin que nadie nos dé explicaciones? ¿Nos acabarán gustando las creaciones artísticas aunque las haya realizado una IA?

No sería la primera vez que nos adaptamos al lenguaje de las máquinas. La relación humano/máquina es, de hecho, una historia de adaptaciones mutuas.

Técnicos analizando las causas del accidente mortal provocado por un coche autónomo de Uber en Arizona en 2018. Wikimedia Commons

 

Vivir con una IA confiable

Pero imaginemos que sí, que los errores y disfunciones llegan a desaparecer. En ese caso desaparecerían también los motivos que hoy nos hacen desconfiar de la IA. ¿Qué ocurrirá entonces? ¿Estarán resueltos los problemas de los que se ocupa la ética de la IA?

Tanto la hipotética perfección de lo artificial como nuestra disposición a normalizar las imperfecciones abren un nuevo panorama, condicionan aspectos esenciales del comportamiento humano y configuran un modelo de sociedad del que también deberíamos ocuparnos ahora.

“La sustitución de la inteligencia humana puede iniciarse de forma paulatina, a medida que la IA vaya mejorando su fiabilidad o nosotros aceptando sus imperfecciones”

Vivir rodeados de sistemas de inteligencia artificial buenos y confiables no sería inocuo. Se me ocurren algunos efectos.

Confianza. La confianza se iría desplazando hacia las máquinas. Si éstas funcionaran correctamente, sus resultados fuesen fiables y se depuraran los sesgos lo lógico sería que trasladásemos buena parte de la confianza que hoy depositamos en el criterio humano, siempre tan voluble, a máquinas menos falibles. Es la idea que, de hecho, subyace en la blockchain: cadenas de confianza distribuidas y administradas por un sistema tecnológico que evita las imperfectas instituciones intermediarias creadas por la sociedad.

Educación. Podríamos renunciar a formarnos en muchas materias y abandonar habilidades como el cálculo, la programación, la escritura o incluso la concentración intelectual porque también serían las máquinas las que calcularían mejor (ya lo hacen), escribirían mejor (empiezan a hacerlo) y nos resumirían textos complejos en frases cortas entendibles para nuestro cerebro adaptado a lo visual y a lo fragmentado.

Memoria. Desplazaríamos la memoria a sistemas mecánicos paralelos que almacenarían todos nuestros datos y nos tendrían al corriente de nuestros recuerdos. 

Decisiones. Delegaríamos en buena medida la toma decisiones, las difíciles e incluso las fáciles, porque las máquinas tendrían más datos para tomarlas. Incluso podríamos eliminar las agobiantes situaciones que nos enfrentan a dilemas éticos para los que estamos cada vez menos preparados.

Aceleración. La lentitud humana difícilmente podría competir con la rapidez que caracteriza a las tecnologías basadas en IA. Muchos de los roles (no solo trabajos) actuales asignados a las personas desaparecerían.

Comprensión. Para comprender el resultado de sus acciones, el ser humano necesita involucrarse en los procesos, entenderlos, comprobarlos, corregirlos… Con una IA a pleno rendimiento se eliminaría la necesidad de involucrarnos en los procesos. Podríamos ir directamente del deseo al resultado. Una de las fases esenciales de la comprensión humana del mundo desaparecería.

“La tentación de prescindir de nosotros mismos es muy grande”

Según los futuristas de la AGI, la inevitable sustitución del ser humano vendrá cuando la tecnología alcance capacidades que hasta ahora creíamos reservadas a la inteligencia humana como el reconocimiento y generación de emociones, la empatía, la comprensión de conceptos, la interpretación del contexto o incluso la conciencia. 

Pero no hace falta llegar tan lejos. Puede que esa temida sustitución de la inteligencia humana se inicie mucho antes, de forma paulatina, indolora, apenas perceptible, a medida que la IA vaya afianzando su grado de fiabilidad, nosotros aceptando sus imperfecciones y la inteligencia humana vaya reduciendo poco a poco su razón de ser y su necesidad de desarrollarse. 

La tentación de prescindir de nosotros mismos es muy grande. Los síntomas son ya perceptibles pero los estamos analizando muy poco. 

Joan Rosés

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *