Arraiga el convencimiento de que Europa está perdiendo el tren tecnológico por exceso de legislación. Si es así, convendría concretar a qué protecciones estamos dispuestos a renunciar
Europa dispone de un corpus legislativo que intenta hacer compatible la salvaguarda de sus valores con el impulso al desarrollo tecnológico pero recibe palos de todos lados. De quienes consideran que contemporiza demasiado con los intereses de las grandes corporaciones y de quienes advierten que tanta legislación sólo consigue poner trabas al desarrollo y crear inseguridad jurídica.
Hace unos días, Meta divulgó una carta a la que se adhirieron empresas como Spotify o Ericson en la que pedía a los líderes europeos que se replantearan la regulación de la IA.
“Europa se ha vuelto menos competitiva y menos innovadora en comparación con otras regiones, y ahora corre el riesgo de quedarse aún más atrás en la era de la IA debido a la toma de decisiones regulatorias inconsistentes”, dice la carta.
Apple ha anunciado que retrasa la implantación en Europa de su suite Apple Intelligence, y el año pasado Open AI advirtió que intentarían cumplir con la ley europea pero que si no podían “dejarían de operar”. Aunque siguen operando, de momento han retrasado el lanzamiento en Europa de sus generadores de voz avanzados.
También desde el ámbito tecnológico europeo se alega que todo ese conjunto de leyes frena la competitividad de la industria autóctona, facilita la fuga de talento y desalienta las inversiones. Para plantar cara a los gigantes norteamericanos y chinos hay que operar con más laxitud, dicen.
La argumentación ha acabado calando y en la industria ha arraigado el convencimiento de que Europa está perdiendo el tren tecnológico por exceso de legalismos. Demasiadas leyes, demasiadas trabas.
Se entiende la preocupación. No es lo mismo competir desde un entorno más permisivo que desde otro más estricto. Pero si esto es así, si realmente la economía digital europea está demasiado normativizada, habría que continuar con la argumentación y plantear qué legislación sobra.
Qué dicen las leyes
Veamos, por encima, lo que dicen las leyes europeas.
Ley de Inteligencia Artificial: trata de establecer estándares éticos y de seguridad en la implantación y uso de la IA. Identifica niveles de riesgo y prohíbe los más altos como los sistemas de puntuación social, la vigilancia biométrica masiva (con excepciones) o el reconocimiento automatizado de emociones en el trabajo o en la escuela.
Ley de Mercados Digitales: tiene como objetivo crear un entorno digital más justo y competitivo. Se centra en regular la operativa de las grandes plataformas digitales, conocidas como “guardianes de acceso”, para evitar prácticas anticompetitivas. Establece una serie de obligaciones como permitir la interoperabilidad con terceros y prohíbe que den preferencia a sus propios servicios.
Ley de Servicios Digitales: busca crear un espacio digital más seguro y transparente. Establece nuevas responsabilidades para las plataformas digitales, incluyendo medidas contra contenidos ilegales, mayor transparencia en la publicidad y los algoritmos, y protecciones reforzadas para los usuarios. Se aplica a todos los servicios digitales que conectan a consumidores con bienes, servicios o contenidos e impone obligaciones más estrictas a las grandes plataformas.
Ley de Protección de Datos (RGPD): en vigor desde 2018, otorga a los ciudadanos mayor control sobre sus datos personales, incluyendo el derecho al olvido o la portabilidad. Impone obligaciones a las empresas en cuanto al procesamiento y almacenamiento de datos, y establece sanciones si se incumplen.
¿Demasiadas leyes? Probable. Pero si dejamos al margen el debate jurídico-técnico sobre su nivel de eficacia, lo que no acaban de concretar quienes se quejan del exceso normativo es qué protecciones deberíamos eliminar.
¿Deberíamos tolerar la vigilancia biométrica en lugares públicos o que los ciudadanos podamos ser puntuados? ¿Que las grandes plataformas puedan promocionar sus propios servicios y poner trabas a los de terceros? ¿Que las redes sociales no tengan ninguna responsabilidad en la propagación de los mensajes de odio y desinformación? ¿Que los algoritmos puedan seguir siendo opacos? ¿Que los desarrolladores de modelos de IA sigan sin informar sobre los datos que han utilizado para entrenarse? ¿Que se puedan comercializar los datos personales?
Lo digital, un bien superior
Se ha instaurado la idea de que lo digital, con la IA a la cabeza, es un bien superior que hay que preservar a toda costa. Lo digital como factor único de competitividad y de progreso. Valores, sí, siempre que no frenen la economía.
La historia demuestra que éste es un falso dilema. Los economistas Daron Acemoglu y James A. Robinson lo explican en su libro “Por qué fracasan los países”. Sólo se consolidan las economías evitando las prácticas extractivas que vacían los países de recursos y de capacidad política, construyendo progreso sobre la base del equilibrio social, de la confianza de los consumidores, del impulso a la innovación diversificada, de la protección de las pequeñas y medianas empresas y fortaleciendo poderes públicos fuertes y democráticos.
Los líderes de lo digital se han acostumbrado a crecer exponencialmente usando prácticas extractivas que en otras épocas y con otras materias han llevado a sociedades enteras a la ruina. Primero fue el saqueo de los recursos naturales, ahora lo es de los datos, ya sea para comercializarlos o para entrenar la IA ¿Es éste el modelo de progreso a seguir?
Demasiadas leyes. Tal vez. Pero primero digamos a qué estamos dispuestos a renunciar.
Joan Rosés
1 comments
Alguien entiende qué es exactamente lo que quieren cambiar? Porque he leído la carta abierta y no es más que la típica redacción corporativa con mucho ruido y poca senyal.
Aunque a priori los modelos “abiertos” (utilizan la terminología “open source model”, que no tiene ningún sentido ni ninguna relación con la terminología open source) desde luego son mejores, al menos en teoría, que el modelo tecnofeudalista de Microsoft/OpenAI, me quedo aún bastante escéptico frente a la idea de que los capitalistas quieren hacernos un favor sin coste alguno. Qué ganan las corporativas publicando estos modelos pseudo-abiertos?