La Unión Europea debería promover un nuevo contrato social que coloque los valores morales en el centro del desarrollo tecnológico.
La Unidad de Prospectiva en Ciencia y Tecnología del Parlamento Europeo (STOA) acaba de publicar dos trabajos de Mihalis Kritikos en los que analiza la influencia de la tecnología en los valores éticos de la sociedad y recomienda algunas actuaciones del poder político.
El primero de los trabajos se refiere a los retos que el desarrollo tecnológico plantea al conjunto de valores de la sociedad actual. El segundo, analiza las propiedades éticas que incorpora la nueva tecnología.
A continuación, destacamos algunos fragmentos de ambos artículos.
1- Qué pasaría si las tecnologías desafían nuestras normas éticas?
“Explorar la relación entre ética e innovación tecnológica siempre ha sido un desafío para los responsables políticos. Las consideraciones éticas sobre el impacto de la investigación y la innovación son cada vez más importantes debido al ritmo acelerado de la innovación tecnológica y al potencial transformador y la complejidad de los avances contemporáneos en ciencia y tecnología. (…) Sin embargo, el rápido desarrollo de tecnologías disruptivas provoca que, a menudo, las normas sociales y éticas deben luchar para mantenerse vigentes. (…)
La mayoría de los especialistas en ética, reguladores y políticos tienden a tratar las creencias morales como variables independientes, como si fueran inmunes a las influencias tecnológicas. (….) Las nuevas tecnologías, que están provocando profundos cambios sociales y culturales, han comenzado a influir en la importancia relativa de diversos principios morales, valores humanos y orientaciones normativas. Su desarrollo también puede modificar nuestras presunciones y prácticas en relación con la ética, y puede alterar las normas sociales en torno a lo que es «aceptable», «normal» y «ético». (…)
Las tecnologías emergentes invalidan los instrumentos tradicionales de gobernanza
Las cámaras portátiles desafían las pautas éticas tradicionales sobre el consentimiento informado, el anonimato, la confidencialidad, la protección de datos y la privacidad, principalmente debido al acceso creciente a la información personal. Las tecnologías robóticas también afectan a las categorías centrales de la ética: nuestros conceptos de agencia y responsabilidad, y nuestros marcos de valores. Algunos académicos incluso han argumentado que «los juicios morales de las personas dependen del contexto digital en el que se presenta un dilema» y que, cuando se enfrentan con dilemas morales de alto conflicto, es más probable que las personas opten por una solución utilitaria si responden a través de un teléfono inteligente que mediante un ordenador. El big data transforma los conceptos tradicionales de investigación ética y traslada el análisis a nociones menos concretas, como la discriminación de datos y la ingeniería consciente de la privacidad.
Con su poder cada vez mayor, amplitud e integración multifuncional, las tecnologías emergentes se vuelven cada vez más intrusivas, interfieren en la vida privada y cuestionan la autoridad de los procedimientos de gobernanza ética institucional «.
RECOMENDACIONES
Mihali Kritikos recuerda que un paso en la dirección correcta ha sido la reciente resolución del Parlamento Europeo que ha implantado un conjunto de normas de derecho civil sobre robótica: un «código de conducta ética para ingenieros de robótica», un «código para comités de ética de investigación», una «licencia para diseñadores» y una «licencia para usuarios».
Kritikos sugiere que la UE debería definir un nuevo contrato social a escala europea sobre innovación responsable que coloque la ética en el epicentro del desarrollo tecnológico. Este contrato debería incorporar estándares legales sobre integridad de la investigación, evaluaciones de impacto ético, auditorías o seguimientos y procedimientos de acreditación armonizados, necesarios como respuesta a la ambigüedad y a la incertidumbre moral de las tecnologías emergentes.
2- Qué pasaría si las tecnologías tuviesen sus propios estándares éticos
“Las tecnologías emergentes también crean sistemas morales específicos dentro de los cuales interactuarán los humanos y los agentes artificiales.
Los coches que se conducen a sí mismos pueden necesitar tomar decisiones sobre la vida y la muerte de sus pasajeros u otras personas en caso de accidentes. Cada vez más robots personales autónomos podrían servir a gente lealmente, pero también les podrían infligir daños. Las aplicaciones Blockchain, con su poder transformador de la sociedad, podrían mejorar el acceso a servicios financieros y bancarios para poblaciones marginadas y distribuir ayuda a los refugiados de una manera más transparente y eficiente. Todas estas tecnologías podrían tener importantes implicaciones éticas para las vidas de las personas.
¿Hay que equipar los robots con códigos morales? ¿Quién y cómo los definen?
¿Llegarán los robots a ser moralmente valiosos más allá de su valor instrumental como dispositivos fabricados para realizar tareas específicas y disponer de un código moral de deberes y derechos?
¿Es posible construir algún tipo de «agentes morales artificiales» que puedan tener conocimiento moral y aplicarlo a una gama de dilemas diferentes y posiblemente complejos? Si es así: ¿con qué código moral deberían ser programados?
¿Las tres leyes de la robótica de Asimov (no hacer daño a humanos, cumplir órdenes humanas, defenderse sin vulnerar lo anterior) constituyen un punto de referencia o existe la necesidad de desarrollar una ética propia de los robots? ¿Podrían los robots finalmente tener no sólo obligaciones y deberes, sino también derechos morales? (…)
Más allá de la programación ética de los dispositivos inteligentes, los algoritmos podrían automatizar por sí mismos complejos procesos de toma de decisiones éticas . (…) Los diseñadores de vehículos autónomos están lidiando con una serie de dilemas éticos: ¿cómo deben ponderarse los diversos valores que compiten entre sí?
¿Dónde debería trazarse la línea entre máquinas y humanos en relación al poder de control?
RECOMENDACIONES:
Entre otros aspectos, Mihalis Kritikos considera necesario que la UE:
– Establezca estándares éticos para incorporarlos a los algoritmos que guían decisiones en áreas como el acceso al crédito bancario, los seguros, el empleo y el acceso a la educación.
– Implante normas o directrices comunes que incorporen valores humanos a los sistemas autónomos.
– Colabore estrechamente con los tecnólogos para investigar, prevenir y mitigar posibles usos maliciosos de la Inteligencia Artificial.
-Organice con urgencia un debate público entre las partes interesadas para determinar una distribución equitativa de las cargas de riesgo y beneficio de los sistemas de autoaprendizaje, asegurar la supervisión humana, el control de la Inteligencia Artificial y la alineación con los valores humanos, y minimizar la opacidad algorítmica y el sesgo oculto de la automatización.
Dr Mihalis Kritikos is a Policy Analyst at the European Parliament working as a legal/ethics advisor on Science and Technology issues (STOA/EPRS) and Fellow of the Law Science Technology & Society Programme of the University of Brussels (VUB-LSTS). Mihalis is a legal expert in the fields of EU decision-making, food/environmental law, the responsible governance of science and innovation and the regulatory control of new and emerging risks. He is also a visiting Lecturer at the College of Europe and at the Scuola Superiore Sant’Anna.