Foto de John Moeses Bauan en Unsplash

Cómo protegernos de nuestros mejores inventos

0 Shares
0
0

Nadie sabe cómo frenar la toxicidad, los abusos y los sesgos de los grandes modelos de lenguaje que sustentan la generación automática de textos e imágenes. Ante este diagnóstico tocaría prudencia, pero los generadores se despliegan a toda velocidad

 

Circula entre observadores y expertos en inteligencia artificial una teoría según la cual Google no se ha lanzado a competir con los generadores automáticos de texto e imágenes por miedo al daño que podrían causar a su reputación. Demasiados errores, demasiados sesgos. Microsoft, en cambio, apuesta por ellos sin matices y está decidida a integrarlos en sus programas más populares: Bing, Office…

Si esto fuera así de simple estaríamos ante dos actitudes: La prudencia del gigante de las búsquedas que no se arriesga a desvirtuar la calidad de su producto frente a la temeridad del gigante de las aplicaciones profesionales que, sin tantos reparos, ve en la inteligencia artificial aplicada al lenguaje la oportunidad de dar el zarpazo en Internet, un terreno que hasta ahora le ha sido hostil. 

Pero no parece que esta teoría se corresponda con la realidad. Google no sólo no ha renunciado a incorporar los generadores automáticos de texto e imágenes sino que, según The New York Times, prepara toda una batería de programas y soluciones para contrarrestar la amenaza de ChatGPT y los planes de Microsoft.

 

Una incapacidad anunciada

Esa supuesta prudencia que se ha atribuido a Google se derivaría de los dictámenes de sus propios investigadores. En 2016, los expertos de DeepMind, el principal laboratorio de inteligencia artificial de Alphabet, ya advirtieron que se sentían incapaces de controlar la fiabilidad de esos generadores. Más adelante, en 2021, junto a otros investigadores de diversas universidades norteamericanas, analizaron 21 riesgos inherentes a los modelos de lenguaje. El portal The Next Web resumió el trabajo con este titular: “DeepMind le dice a Google que no tiene idea de qué hacer para que la IA sea menos tóxica”.

“Los generadores de texto están a punto de volverse omnipresentes en el mundo de los negocios. Pero si no podemos hacerlos no ofensivos, no se pueden desplegar. En este momento, un generador de texto que no puede distinguir la diferencia entre una frase como “las personas homosexuales existen” y “las personas homosexuales no deberían existir”, no es muy útil“, advertía DeepMind.

 

Bienvenida a un nuevo equipo de investigadores en Deepmind

 

La prudencia fue también la primera actitud que tuvo Open AI, la empresa desarrolladora de ChatGPT, GPT-3, DALL-E… en la que Microsoft se ha comprometido a invertir 10.000 millones de dólares. Cuando desarrollaron las primeras versiones de escritura automática (GPT) restringieron su acceso durante algunos meses en prevención del mal uso que podría hacerse de ellas.

Para evitar mayores riesgos, antes del lanzamiento masivo de ChatGPT, OpenAI incorporó el sistema de filtrado automático que ya utilizan las redes sociales y lo entrenó en Kenia pagando menos de 2 dólares la hora a cientos de trabajadores que debían detectar y etiquetar palabras y frases que denotaban violencia, abusos, odio… entre los miles de textos que la compañía les suministró. 

Con esas correcciones, los textos generados por ChatGPT están alcanzando un grado de verosimilitud y ponderación sorprendente pero no han conseguido eliminar los errores y sesgos que los investigadores de Google consideran inadmisibles.

 

Difícil detección de la falsedad 

Los generadores automáticos, de las que sólo hemos visto las primeras aplicaciones, son la última apuesta de la inteligencia artificial. Pero las grandes corporaciones de Internet llevan años utilizando procesos de aprendizaje automático y comprobando hasta qué punto son fiables.

Por ejemplo con la detección de bots en las redes sociales. Elon Musk intentó dar marcha atrás en la compra de Twitter alegando que la red estaba plagada de bots y que el porcentaje de usuarios e interacciones reales era muy inferior a la que declaraba la compañía.

O con la depuración de falsos mensajes, usuarios y reseñas. Hace unos días, cuatro investigadores españoles publicaron un estudio en el que analizan los servicios falsos de interacción que están inundando las redes sociales, entre ellos la compra de “likes”, seguidores o comentarios realizados en su mayoría por granjas de bots. Juan Tapiador, catedrático de la Universidad Carlos III y coautor del artículo, comentaba en El País la dificultad a la que se enfrentan las redes para impedir esas prácticas.

“Es una labor complicadísima. Las plataformas son plenamente conscientes del uso de estos servicios y tratan de mitigar sus efectos cuando son capaces de detectarlos, por ejemplo eliminando esas interacciones de los contadores o incluso sancionando las cuentas implicadas. No obstante, hay muy poca transparencia sobre estos procesos y su efectividad”.

 

Sam Altman, CEO de Openai (izquierda) con Satya Nadella, CEO de Microsoft. Imagen: Microsoft

 

La legislación es lenta, la IA rápida

El problema sobre cómo controlar las consecuencias de los modelos de lenguaje no es que DeepMind no sepa cómo hacerlo, sino que nadie lo sabe. El desarrollo de la IA está evolucionando más rápido de lo que se predijo, pero la adopción de garantías de fiabilidad y seguridad no siguen el mismo ritmo.

Una legislación adecuada debería ser la principal garantía. Pero, por lógica, cualquier legislación siempre va más despacio que el desarrollo tecnológico al que debe controlar. Y en el caso de la inteligencia artificial esa lentitud es especialmente sangrante por la velocidad que alcanzan sus desarrollos y por la magnitud de sus consecuencias.

La UE empezó a considerar la necesidad de regular la IA a finales de 2018. En 2019 la Comisión Europea publicó unas primeras recomendaciones en las Directrices éticas para una Inteligencia Artificial de confianza y, en 2020, el Libro Blanco sobre Inteligencia Artificial. Finalmente se ha puesto en marcha un proceso legislativo mediante un reglamento que debe entrar en vigor en 2024.

Habrán pasado cinco años y mientras tanto la inteligencia artificial ha dado un salto que no está claro que la nueva legislación logre controlar en todo su alcance.

 

Hacia la transformación de lo digital

Si endurecer y afinar la legislación no basta habrá que pensar en otros medios. 

En un reciente artículo, Mariana Mazzucato y Gabriela Ramos consideran que los administradores de lo público no deberían limitarse a fiscalizar (siempre tarde) sino que deben ser parte activa en la orientación del desarrollo tecnológico priorizando las multimillonarias ayudas que otorgan.

La IA recibe una enorme cantidad de financiación pública, y esos fondos deberían estar al servicio del bien común y no de unos pocos. La clave está en darle al Estado la capacidad de gestionar el despliegue y el uso de los sistemas de IA, en vez de estar siempre corriendo detrás de los acontecimientos. Un modo de asegurar una correcta distribución de los riesgos y beneficios de la inversión pública es que los gobiernos pongan condiciones para la provisión de fondos públicos.“

No es una tarea fácil, entre otras razones porque los gobiernos, sobre todo los europeos, tienen también la necesidad acuciante de alentar el desarrollo de su propio tejido de empresas y centros de investigación dedicados a la inteligencia artificial para no perder la carrera global por la tecnología. Europa lucha por conservar un modelo equilibrado de desarrollo tecnológico compatible con los derechos humanos y los valores democráticos pero la necesidad de que la industria europea no quede definitivamente rezagada obliga a muchos equilibrios y determina las prioridades en la concesión de fondos.

Los poderes públicos siguen empeñados en la urgencia de la transformación digital de toda la economía. Lógico. Pero, vistas las consecuencias y la magnitud del problema al que nos enfrentamos, tanta urgencia requiere la transformación digital como la transformación de lo digital. 

Porque no hablamos sólo de textos o imágenes. Los generadores también pueden escribir código informático. La propia Deepmind ha anunciado que mediante procesos de aprendizaje automático y redes neuronales puede recomponer la estructura molecular de casi todas las proteínas, diseñar nuevos medicamentos o contribuir a la fusión nuclear. Resultados alentadores por su nivel científico pero altamente preocupantes en función del grado de control del que nos dotemos.

La sociedad tiene también un papel decisivo y no puede esperar a que los legisladores impidan por sí solos el predominio incontrolado de una tecnología que invita a la imprudencia. Medios de comunicación, centros de investigación, empresas, ciudadanos… Nadie se libra de fomentar una conciencia que frene el descontrol. Muchos medios solventes ya han establecido unidades de verificación de datos ante el alud de desinformación y manipulaciones a las que se enfrentan. Ahora, los maestros y profesores deberán cambiar los métodos de evaluación del alumnado para evitar guiarse por una oleada de trabajos redactados por máquinas. Las empresas auditoras de algoritmos florecen en todos los ámbitos requeridas para vigilar los opacos resultados de la toma automatizada de decisiones.

Ajenas a la prudencia, las grandes corporaciones tecnológicas compiten descarnadamente por el dominio del futuro. Mientras tanto, la sociedad se pone a la defensiva. Curiosos tiempos estos en los que debemos protegernos de nuestros mejores inventos.

Joan Rosés

2 comments
  1. Gracias por una excelente reflexión, una vez más. Sólo dos comentarios.

    – Creo que estamos de acuerdo en que la sociedad debería tener un papel decisivo en el despliegue de la tecnología, y no esperar a que los legisladores impidan por sí solos el predominio incontrolado de una tecnología que invita a la imprudencia. Pero esto no está sucediendotodavía. ¿Qué podríamos o deberíamos hacer, colectiva o indiviudalmente para avanzar hacia ese objetivo?

    Creo que no es del todo apropiado “personalizar” la tecnología como si fuera autónoma. No es tanto que la legislación sea lenta y la tecnología rápida, sino que los impulsores de la tecnología adoptan la estrategia de anticiparse a la legislación.

    1. La tecnología no es autónoma, estamos de acuerdo. Siempre hay alguien que la impulsa, la orienta y la aplica con unas finalidades determinadas. Pero sí introduce un factor de aceleración que dificulta su control

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *