Las empresas tecnológicas dicen comprometerse con los valores de la sociedad. ¿Es un compromiso real o una estrategia para guardar las apariencias?
En los últimos meses, diversas empresas digitales han anunciado públicamente su compromiso por la defensa de los valores esenciales de la sociedad y un rechazo al negocio a cualquier precio. En buena medida, esta actitud es una reacción ante los escándalos que se van conociendo, a la creciente sensibilidad de la opinión pública y a la preocupación de los legisladores. Incluso la consultora Gartner pronosticó a principios de año que la ética sería una de las 10 grandes tendencias tecnológicas del 2019.
En línea con esta nueva sensibilidad, el comité de expertos de la UE acaba de hacer públicas sus recomendaciones sobre el desarrollo de una Inteligencia Artificial confiable. Por parte de las empresas, este cambio de posición se va concretando en el establecimiento de códigos internos, manifiestos públicos, comités de ética, patrocinio de centros de investigación…
La duda está en si estas acciones son ejemplo de una actitud sincera basada en un reequilibrio de prioridades o se trata de una simple fachada para aparentar y distraer el acoso de la opinión pública. ¿Estamos hablando de un compromiso ético real o de la ética como coartada?
Cinco grandes retos
Los grandes retos éticos a los que se enfrenta la sociedad en las primeras décadas del siglo XXI a consecuencia del desarrollo tecnológico pueden agruparse en cinco grandes ámbitos: Datos, Inteligencia Artificial, ingeniería genética, desinformación y concentración de poder.
Con el control y uso masivo de datos se pone en riesgo la privacidad; la inteligencia artificial abre diversos frentes entre los que podríamos incluir el impacto de la robótica y el sesgo y opacidad de decisión de los algoritmos; la ingeniería genética interviene en la manipulación del genoma humano; la desinformación se expande como una plaga que corroe la sociedad, acentuada especialmente en el terreno de la política; y la concentración creciente del poder de grandes conglomerados privados debilita las sociedades democráticas.
En algunos ámbitos, la defensa de los valores fundamentales y la prevención de riesgos se ha abordado mediante iniciativas regulatorias: datos, en Europa; leyes anti monopolio, en Europa y Estados Unidos; ingeniería genética, compromiso mundial diverso… En el ámbito de la inteligencia artificial y en de la desinformación se ha optado, de momento, por la autoregulación y la confianza en los compromisos éticos que contraen las organizaciones.
Pero algunos acontecimientos recientes demuestran que la supuesta conversión ética de algunas empresas tecnológicas no va a ser ni rápida ni sencilla. Veamos algunos ejemplos publicados por los medios de comunicación.
El comité ético externo de Google que debía supervisar los desarrollos de inteligencia artificial ha durado apenas una semana La Vanguardia. Los datos de usuario de Facebook siguen apareciendo en lugares donde no deberían Bloomberg. El Departamento de Vivienda y Desarrollo Urbano de los EE. UU. ha denunciado a Facebook porque publica anuncios de viviendas orientados en función de la raza, el color o la religión Technology Review. Una red opaca de anuncios en Facebook simula movimientos sociales masivos a favor del Brexit duro El Diario.es. Facebook permite que docenas de grupos promotores de delitos cibernéticos operen abiertamente Wired. Los ejecutivos de YouTube ignoraron las advertencias y dejaron que los videos tóxicos se viralizaran Bloomberg.
Pedirle a la tecnología que priorice razones morales va contra su naturaleza
Visto el panorama, volvemos a la pregunta: ¿la tendencia ética en el mundo empresarial digital corresponde a un compromiso real o es sólo apariencia?
Benjamin Wagner, profesor de la Sistemas de Información en la Universidad de Viena, sostiene que estamos asistiendo a un “lavado ético” como estrategia para evitar la regulación gubernamental. “La mayoría de los códigos éticos establecidos por las empresas no son vinculantes. Para ellas es muy fácil decir que la ética es importante y continuar con lo que están haciendo”.
Yoshua Bengio, científico canadiense, premio Turing 2018 dice en la revista Nature: “La autorregulación no va a funcionar. ¿Crees que los impuestos voluntarios funcionan? No. Las empresas que sigan pautas éticas estarán en desventaja con las que no lo hagan. Es como conducir. Por el lado izquierdo o derecho, todos deben conducir de la misma manera; de lo contrario, surgen problemas.”
El filósofo francés Jacques Ellul (1912-1994) decía que la técnica constituye un sistema autónomo con una lógica propia basada en hacer aquello que se pueda hacer, sin más limitaciones que las de su propio conocimiento y experimentación. Pedirle a la tecnología que priorice o atienda a razones morales es algo que va contra su naturaleza.
¿Si la autoregulación no funciona nos queda sólo la legislación?
La tendencia a endurecer las normas va ganando adeptos. Un documento del gobierno británico publicado hace unos días propone agrupar competencias de ocho entidades reguladores para que puedan sancionar con más rigor prácticas relacionadas con la propagación del odio, la desinformación o amenazas a la seguridad generadas en el ámbito digital.
En relación a las prácticas monopolistas, la UE está mostrando en los últimos años su capacidad sancionadora ante gigantes tecnológicos. En materia de datos, la misma Unión Europea ya dio un paso importante en materia reguladora con la normativa general que entró en vigor el 25 de mayo de 2018. Pero en relación a la desinformación y la inteligencia artificial, la UE se mueve, de momento, en el ámbito de las recomendaciones, aunque ya hay indicios de que la paciencia se está agotando.
En Estados Unidos la senadora demócrata Elizabeth Warren lanzó recientemente una propuesta para fragmentar las grandes corporaciones tecnológicos. También el Gobierno del Canadá se plantea regular Facebook y otras big tech.
Si las empresas no colaboran, convierten en papel mojado sus principios éticos, mantienen la opacidad de sus operaciones y muestran escaso interés por rendir cuentas ponen a las administraciones en la tesitura de cerrar los ojos y dejar hacer en nombre del “progreso” u optar por la legislación y la sanción como única vía de preservar los derechos y valores de la sociedad.
Tampoco esta vía solucionará los problemas de fondo.
La innovación tecnológica siempre va por delante de la legislación. Es lógico que así sea, y en el mundo digital, lo hace a un ritmo tan acelerado que para cualquier legislador resulta imposible entender sus repercusiones y, por lo tanto, legislar con rigor y ecuanimidad.
O las empresas colaboran o los legisladores se verán obligados a actuar desde el temor, provocando a menudo daños colaterales.
Muchos tecnólogos se lamentan con frecuencia de la inoperancia de las administraciones. No entienden el mundo digital, reaccionan tarde y mal, dicen. En muchos casos tienen razón, pero tampoco pueden pretender que las administraciones alienten ciegamente la innovación cuando los grandes líderes tecnológicos están mostrando un desprecio generalizado por los valores sociales y un ansia depredadora desmesurada.
Si la economía digital no incorpora un comportamiento ético permanente y confiable, previo a cualquier regulación, se corre el peligro de desnaturalizar los valores fundamentales de la sociedad o estimular una sobre legislación, muchas veces inoperante. Adela Cortina, catedrática de ética de la Universidad de Valencia dice que “la ética ahorra dinero”. Podríamos añadir, que ahorra también burocracia y obstáculos innecesarios.
Autoregulación, no, legislación, tampoco. ¿Entonces?
El factor decisivo le corresponde a la opinión pública. De la percepción general que arraigue en la sociedad acerca de las ventajas e inconvenientes del desarrollo tecnológico dependerá en buena medida el comportamiento de empresas y gobiernos. Hemos vivido las últimas décadas en una fascinación acrítica hacia palabras mágicas como digital, tecnología, disrupción, nuevos modelos de negocio, economía colaborativa… Esta percepción está empezando a cambiar. Ligeramente, pero lo está haciendo. Con mucho camino por recorrer, medios de comunicación, una parte creciente de la ciudadanía ilustrada y trabajadores de las grandes empresas tecnológicas están ampliando y modificando la mirada. De hecho, la reciente crisis del comité ético de Google se generó por las protestas de sus propios trabajadores. La fascinación está dando paso al recelo o, por lo menos, a la crítica.
Sólo sabemos qué está en juego cuando sabemos que está en juego (Hans Jonas)
Más allá de la efectividad de la regulación o de la autoregulación, la sociedad deberá luchar por preservar los valores esenciales de convivencia en la medida que entienda que hay un riesgo real de perderlos. Decía el filósofo alemán Hans Jonas (1903-1993) que “sólo sabemos qué está en juego cuando sabemos que está en juego”. Si la cultura de los valores, la defensa de los derechos y la exigencia de moderación en el desarrollo tecnológico arraiga entre la población en general y, muy especialmente, entre aquellos que promueven la innovación, el equilibrio entre desarrollo tecnológico y valores será posible.
El tercer factor ético concierne a la cultura del pensamiento crítico, la divulgación de los valores, la formación humanística y el debate social permanente sobre las consecuencias del avance tecnológico. Fuera de las empresas, pero también en su interior. Hacen falta nuevos talentos digitales capaces de extraer todas las potencialidades de la inteligencia artificial, la neurociencia, la bioingeniería… pero tan necesario es impulsar este tipo de formación como el de fomentar las humanidades y la capacidad integral del ser humano.
Sin una toma de conciencia general de la magnitud de los riesgos a los que se expone la sociedad ni las empresas se autoregularán ni los poderes públicos acertarán a poner coto a los abusos.
Ética entendida como debate social permanente o ética como coartada.