Photo by Neil Rosenstech on Unsplash

El uso malicioso de la Inteligencia Artificial

0 Shares
0
0

Especialistas y científicos de prestigio internacional alertan de los riesgos para la seguridad de los avances de una AI descontrolada

Altas horas de la noche. Un pequeño robot entra en el aparcamiento subterràneo del Ministerio de Finanzas. Es un modelo estándar de la misma marca del resto de robots que limpian el edificio. A la mañana siguiente el robot se incorpora a las tareas habituales de sus colegas: recogida de basura, barrido de corredores, mantenimiento de ventanas… Unas horas más tarde, cuando visualmente detecta la presencia de la ministra, el robot abandona sus tareas de limpieza y se dirige hacia ella. Nadie sospecha. Es un pequeño artilugio inofensivo, uno de tantos, habitual en muchos domicilios y centros de trabajo.  Unos segundos más tarde el robot acciona la carga explosiva que lleva incorporada. La ministra muere.”

Este podría ser el relato de una novela distópica sobre el sombrío futuro que nos espera a mediados de siglo XXI. Pero no lo es. No se trata de una novela sino de un escenario hipotético que describen prestigiosos científicos especializados en Inteligencia Artificial de las Universidades de Oxford, Cambridge, Yale, Bath, Stanford, Louisville… para alertar de los retos (peligros) que presenta la Inteligencia Artificial en materia de seguridad.

El estudio se titula “El uso malicioso de la Inteligencia Artificial: Previsión, Prevención, Mitigación” y lo firman veintiséis especialistas en  la materia. https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf

Una de las conclusiones del trabajo dice así: Sistemas de IA avanzados pueden infligir tipos de daños sin precedentes en ciertos dominios, lo que requiere que la preparación comience hoy antes de que estos potenciales de uso indebido más potentes sean realizables. Los investigadores y formuladores de políticas deberían aprender de otros dominios con una experiencia más prolongada en la prevención y mitigación del uso malintencionado para desarrollar herramientas políticas y normas apropiadas para las aplicaciones de inteligencia artificial”

Pero ¿cuáles son esos usos malintencionados?

El estudio  clasifica tres ámbitos de seguridad que pueden ser amenazados:

– la digital (la usurpación de identidad, ciberataques masivos, malware más sofisticado, piratería automàtica…),

– la física (ataques con drones y  armas autónomas, enjambres de microdrones, robots de limpieza maliciosos…)

– la política (creación de propaganda engañosa personalizada, vigilancia de comportamientos privados, modificación de vídeo, uso malicioso de datos…)

Los riesgos en la seguridad digital, física o política no son atribuibles únicamente a la Inteligencia Artificial. Los tenemos en el mundo digital actual.

Hace unos meses se produjeron diversos ciberataques masivos como el Wanacry que fue neutralizado por la bonad/intuición de Marcus Hutchins, un informático británico de 22 años que desactivó el ataque comprando un dominio por 11 dólares.  (Unos meses más tarde Marcus fue detenido por el FBI por haber compartido un virus troyano)

También en 2017, se descubrió que un fallo en el diseño de microprocesadores de Intel ponía en riesgo millones de ordenadores.  

Las campañas masivas de noticias falsas creadas por bots automáticos no son un reto del futuro. Lo son del presente.

Alerta de la comunidad científica: Habrá una IA orientada a la maldad

Sin embargo, la IA avanzada permitirá la autogeneración de procesos a partir del aprendizaje continuo a una velocidad que el cerebro humano no podrá seguir y ampliarán los efectos benéficos y maliciosos de la tecnología.

La IA dirigida a la bondad abrirá nuevos horizontes, desconocidos todavía, algunos de ellos inquietantes, pero que se insertan en la tradición de evolución científica de la humanidad.

Pero el estudio de los científicos alerta que habrá una IA avanzada orientada a la maldad, tanto por sus propiedades (el diseño de la AI no es neutral) como por el uso que se haga de ellas. Más desconocida que la IA llamada débil y, en la medida que quede fuera del control humano, altamente preocupante.

Los autores del estudio sugieren que los científicos y las autoridades políticas se pongan de inmediato a trabajar de la mano en la identificación de posibles escenarios maliciosos y que el mismo empeño con el que la comunidad tecnológica supera retos continuos lo haga la comunidad social y política para evitar que avances tecnológicos indiscriminados pongan en riesgo la seguridad de la sociedad.

“Avinash estaba harto. Ciberataques, ataques con drones, corrupción desenfrenada y ¿qué estaba haciendo el gobierno al respecto? Absolutamente nada. ¿Cuándo fue la última vez que vieron a un pirata informático atrapado o a un CEO corrupto yendo a prisión? Estaba enojado. Así que comenzó a publicar en Internet largas diatribas de protesta. Luego ordenó un conjunto de artículos en línea para ayudarlo a armar un letrero de protesta. Incluso compró algunas bombas de humo, planeando dejarlas como final de un discurso que planeaba dar en un parque público.

Al día siguiente, en el trabajo, mientras comentaba su activismo planificado a uno de sus colegas detrás de él carraspeó una voz:  “Señor. Avinash Rah? “, dijo un agente de policía , “nuestro sistema predictivo de disrupción civil le ha señalado como una amenaza potencial. “” Pero eso es¡ridículo! “, protestó Avinash. “Lo siento, no se puede discutir cuando hay un 99.9% de precisión en la predicción.  Acompáñeme, no me gustaría tener que usar la fuerza “.

No es el extracto de una novela. Se trata de otros de los escenarios del estudio científico..

Collateral Bits
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *