El abuso de vocabulario equívoco infunde a la tecnología un aura de superioridad. Surgen iniciativas para erradicar del lenguaje común palabras que equiparan los desarrollos tecnológicos a capacidades propiamente humanas
El Centro de Privacidad y Tecnología de la Universidad de Georgetown, en Washington DC, ha decidido dejar de usar los términos “inteligencia artificial” y “aprendizaje automático“.
El Centro se dedica a analizar y divulgar los efectos que las tecnologías digitales provocan en la vida de las personas y considera que hablar de “inteligencia artificial” y “aprendizaje automático” no sólo no responde a los conceptos que planteó Alan Turing a mediados del siglo XX sino que pervierten el verdadero significado de los desarrollos tecnológicos actuales. “En la medida que nuestras palabras puedan hacer que ciertos mundos sean más o menos posibles, queremos usarlas con cuidado.”
Son los primeros en tomar una decisión tan drástica pero son diversos los expertos que han alertado de las confusiones que provoca el lenguaje equívoco que usa la tecnología.
La IEEE, la mayor organización mundial de profesionales de la tecnología, ha publicado sobre este tema un informe titulado Decoupling Human Characteristics from Algorithmic Capabilities. El trabajo tiene por objetivo desligar el lenguaje que equipara determinados avances técnicos con características puramente humanas como aprender, analizar, conocer, prever y tomar decisiones.
“Palabras como “aprender”, “ver”, “oír” y “entender” son útiles para comunicar las capacidades de un producto en conversaciones de ascensor o en folletos de marketing. Sin embargo, no sirven para explicar las posibilidades reales que permite la combinación de datos, algoritmos, máquinas, estadísticas y matemáticas. El lenguaje antropomórfico se ha expandido fuera de los laboratorios y de las empresas y se ha incorporado a las conversaciones cotidianas. Atribuir características humanas a la IA enmascara importantes matices que deben entenderse y debatirse. De lo contrario, perdemos nuestra capacidad de comprender el riesgo al que nos enfrentamos y de exigir la responsabilidad que deben asumir empresas y gobiernos.”
Ambigüedades y confusiones
El FrameWorks Institute publicó en 2021 una investigación que describe algunas de las confusiones más frecuentes acerca de la IA que se explican, en parte, por el uso de un determinado lenguaje que facilita el desconocimiento de las potencialidades reales de esa tecnología y genera una percepción muy extendida según la cual la IA es más inteligente que las personas.
La IA como innovación. El público se deja deslumbrar en exceso por la IA y por cualquier tecnología “innovadora“.
La IA como misterio. Aunque la mayoría entiende que la IA usa datos para tomar decisiones, pocos comprenden qué son los algoritmos predictivos o cómo funcionan. Hay quien los equipara a “adivinos” capaces de predecir el futuro.
La IA contra lo humano. Se generaliza la creencia de que la IA sustituye lo humano. Entender la IA como una sustitución de la humanidad desplaza el pensamiento crítico sobre los problemas reales que hoy causa esa tecnología, como la amplificación de los sesgos. Las implicaciones sociales de la IA surgen de la interacción entre la tecnología y las personas.
IA como producto de consumo. No se perciben las conexiones entre la IA y las desigualdades sistémicas, sino que la mayoría las aborda desde una perspectiva consumista. Se percibe la IA simplemente como un producto de lujo que algunos pueden pagar y otros no. Esto hace que cualquier desigualdad provocada por estas tecnologías parezca un efecto natural de nuestra cultura de consumo.
Malos actores, no sistemas amañados. Aunque la opinión pública se muestra abierta a la intervención de los gobiernos, se subestima la necesidad de regular los sistemas “inteligentes” y la industria tecnológica, en general. La mayoría cree que basta con castigar a los “malos actores“.
Una apropiación deliberada
Meredith Whittaker, fundadora y directora del AINow Institute de Nueva York, atribuye la antropomorfización del lenguaje tecnológico a la apropiación que han hecho de él las grandes corporaciones tecnológicas.
Argumenta Whittaker que los avances de la IA en la última década no se deben tanto al progreso científico como a la gestión que las grandes corporaciones tecnológicas privadas hacen de las ingentes cantidades de datos que acumulan. “Nuestra creciente dependencia de la IA cede un poder desmesurado a estas empresas, en particular, la capacidad de dar forma a lo que sabemos sobre la IA”.
Según Emily Tucker, directora del Centro de Privacidad de Georgetown, que seamos ignorantes y respetuosos con las tecnologías no es un accidente. Tampoco es casual la fábula que anuncia una futura super inteligencia que sobrepasará las capacidades humanas. “La amenaza es real, pero no porque los ordenadores sean capaces de lograr algo así, sino porque la avaricia corporativa y las ansias del control político requieren que las personas abandonen toda aspiración de saber lo que pueden hacer sus propias mentes.”
¿Y cómo le llamamos?
¿Y si no le llamamos “inteligencia artificial” y “aprendizaje automático“, qué nombre le ponemos? El Centro de Georgetown propone algunas ideas:
(1) Ser lo más específico posible sobre la tecnología en cuestión. Por ejemplo, en lugar de decir “el reconocimiento facial usa inteligencia artificial”, podríamos decir algo así como “las empresas tecnológicas usan conjuntos de datos masivos para entrenar algoritmos que identifican imágenes de rostros humanos“.
(2) Identificar los obstáculos que dificultan la comprensión. Por ejemplo, en lugar de decir “las empresas están usando IA para analizar las emociones de los trabajadores”, podríamos decir “las empresas están usando un software del que dicen tener la capacidad de etiquetar las emociones de los trabajadores en función de las imágenes obtenidas a partir de fotografías y videos”.
(3) Nombrar las empresas responsables de la creación y difusión de un producto tecnológico. Por ejemplo, en lugar de decir “las administraciones usan IA para verificar la identidad de las personas que solicitan subsidios de desempleo“, podríamos decir “los gobiernos están contratando a una empresa llamada ID.me que usa Amazon Rekognition, un algoritmo de coincidencia de rostros, para verificar la identidad de las personas que solicitan subsidios de desempleo”.
La propuesta del Centro de Privacidad puede que consiga adeptos en el ámbito académico pero no lo tendrá fácil para arraigar en el lenguaje habitual tan dado a la simplificación y a los esloganes. Habrá que buscarle un nombre a “esa cosa de la que estamos hablando“, si es que estamos a tiempo.
Mientras tanto tendremos que convivir con los equívocos a sabiendas de que, como dice Kate Crawford al comienzo de su conocido libro Atlas of AI, la “inteligencia artificial, ni es inteligencia ni es artificial”.
3 comments
Muy oportuno. Como escribe Rob Riemen en su más que necesario “Para combatir esta era: Consideraciones urgentes sobre fascismo y humanismo” (Taurus 2018), ““Cuando el lenguaje pierde el significado, no puede existir ninguna forma de verdad y la mentira se convierte en norma”.
Retengo ser activo (y militante) en combatir la antropomorfización del lenguaje tecnológico. Quizá valdría además la pensa encontrar o inventar palabras que sustituyan aquellas de las que los tecnócratas se apropian sin derecho. Pensaré sobre ello.
Gracias por esta publicación.