El culto al pasado, que tan buenos rendimientos aporta a la industria cultural, se traslada al uso de las tecnologías basadas en datos.
La innovación y la creatividad sustentadas por algoritmos, tan aparentemente disruptivas, pueden acabar limitándose al simple maquillaje de estereotipos y sesgos.
.
En el libro The Hours Have Lost Their Clock: The Politics of Nostalgia, Grafton Tanner recuerda un trabajo publicado en 2012 por un grupo de investigadores españoles del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC sobre la repetición de patrones en la música contemporánea.
Joan Serrà, Álvaro Corral, Marián Boguñá, Martín Haro y Josep Ll. Arcos confirmaron con datos una sospecha generalizada: la música que circula por las radios y las redes es cada vez más parecida. Tras analizar casi medio millón de canciones concluyeron que desde la década de los sesenta la variedad tímbrica y melódica de la música pop se había reducido.
Por su parte, el grupo de investigación en Tecnología Musical de la Universitat Pompeu Fabra hizo un estudio sobre los sistemas de recomendación de la plataforma Last.fm. Concluyeron que estos sistemas amplificaban los tics de la industria musical: los artistas más populares reciben una atención desproporcionada y las mujeres artistas están infrarrepresentadas. Los algoritmos enfatizan el sesgo de género existente al igual que hacen con otros sesgos como los de raza o el predominio de las grandes discográficas sobre las independientes.
El bucle de retroalimentación y multiplicación de sesgos no es algo exclusivo de la música, sino que es inherente a la economía de datos gestionada por algoritmos.
Los algoritmos de predicción de delincuencia que usan muchas policías actúan de ese modo. Los datos incorporados al sistema identifican las zonas o grupos de población con mayor índice de criminalidad, la policía concentra su vigilancia en ellos, se detiene a más gente, y el índice de criminalidad de la zona o el grupo sigue aumentando. Los sistemas automatizados de selección de trabajadores siguen criterios similares. Los que seleccionan a las familias susceptibles de recibir ayudas sociales, lo mismo.
Los sistemas de recomendación o de toma de decisiones automatizadas basadas en datos amplifican los sesgos y establecen bucles de retroalimentación impermeables a información nueva.
.
.
Son bucles que no solo limitan la mirada sino que determinan creencias, comportamientos y gustos.
“Los estilos musicales comienzan a converger a medida que se recomiendan canciones de acuerdo con un vocabulario predeterminado de descriptores. Eventualmente, los oyentes pueden comenzar a parecerse a los modelos que han creado las plataformas. Con el tiempo, algunos pueden volverse intolerantes a cualquier otra cosa que no sea un eco.“ dice Grafton Tanner.
Fuera del mundo digital, la interacción social se genera en gran medida de forma espontánea. Puedes planificar tus comportamientos pero las interacciones con otras personas los alteran. Las personas se influyen unas a otras, las ideas se comparten, se modifican; la colaboración y la adaptación es permanente. Pero en las plataformas se nos cataloga como datos y se nos encasilla junto a otras personas con las que supuestamente compartimos gustos.
En las plataformas nuestra identidad ha sido etiquetada y reducida al perfil en el que se nos ha incorporado. Spotify crea modelos de usuarios y hace predicciones recomendando música que coincide con los supuestos gustos de esos modelos. Somos el modelo al que pertenecemos. Es el algoritmo el que dice quienes somos.
.
Los algoritmos predictivos no predicen nada
La hegemonía de la sociedad basada en datos nos lleva a una paradoja sobre su modernidad. Los algoritmos predictivos realmente no predicen nada. Simplemente hacen que ciertos pasados reaparezcan repetidamente. Los algoritmos tienden a privilegiar sesgos y estereotipos y desdeñan otras miradas minoritarias o marginadas que aportan menos datos al modelado de la sociedad o, lo que es peor, sólo son consideradas en función de informaciones negativas que siempre les discriminan.
Sobre los algoritmos predictivos, el escritor y artista James Bridle dice que «entrenar estas inteligencias nacientes en los remanentes del conocimiento previo es codificar la barbarie en nuestro futuro«. Una cultura que piensa con algoritmos «proyecta un futuro igual al pasado«, dice Bridle, porque los modelos elaborados con datos se proyectan con la suposición implícita de que las cosas no cambiarán.“En un mundo que depende de la computación para dar sentido a las cosas, lo que es posible se convierte en lo que es computable».
El primer paso para congelar la cultura es reducirla a datos, dice Tanner. Los algoritmos entrenados con informaciones del pasado (y no hay otra forma de entrenarlos) son las mejores herramientas para mantener el statu quo. La innovación se convierte así en una forma sofisticada de recreación de repeticiones.
Un síntoma lo refleja el creciente negocio de la nostalgia. En su forma más visible lo vemos en los remakes de obras audiovisuales y artísticas o en el uso de la última tecnología para recrear el pasado, ya sea para terminar la décima sinfonía de Beethoven o componer canciones de Nirvana 27 años después de su desaparición. Abba vuelve a los escenarios mediante avatares, un sistema de IA recupera la voz de una cantante coreana muerta hace 25 años, Rembrandt sigue pintando, los NFT’s convierten en dinero escenas míticas de Pulp Fiction.
El futuro de la nostalgia explica, tal vez, las grandes sumas de dinero que algunas multinacionales han pagado a artistas como Bob Dylan, Tina Turner o Shakira por los derechos de sus catálogos.
.
.
Pero en sus formas más veladas la nostalgia se incorpora a hurtadillas entre las propuestas creativas aparentemente innovadoras. Contenido supuestamente original recupera del pasado melodías, timbres, pinceladas, tonos, construcciones creativas, personajes…
Las multinacionales de la cultura saben que una forma de garantizar el éxito es repetir el pasado. La industria cultural es temerosa. Los grandes medios buscan la rentabilidad, no el riesgo. Los pequeños viven en tal grado de incertidumbre o incluso precariedad que cualquier paso en falso puede provocar su ruina.
Los datos ayudan a cometer menos errores. Pero, en contrapartida, realimentan el temor, confirman lo ya sabido, son ajenos al descubrimiento, viven del pasado y evitan el riesgo.
Reducir la cultura y los consumidores a datos seguirá produciendo las mismas representaciones de siempre tamizadas por el barniz de la modernidad. La sociedad corre el riesgo de que el uso de la tecnología basada en datos conviertan la innovación y el progreso en una ilusión. La construcción del futuro puede acabar limitándose a maquillar sin sobresaltos un pasado repleto de vicios.
El futuro se sustenta en el pasado, pero no se limita a él.
Como dice Tanner, “si dejamos que los algoritmos predigan el futuro, encontraremos que no hay ningún lugar adonde ir, solo hacia atrás.”