Collaterallogo
14 de junio de 2023

- Se suceden las alertas sobre los peligros de la IA. A la sociedad le costará percibirlos.
- Cada vez es más difícil identificar un interlocutor humano de un chatbot.
- "El Mito de la Inteligencia Artificial", un libro para desmontar exageraciones interesadas.

¿Riesgo, qué riesgo?


Una carta firmada por la crème de los investigadores y empresarios mundiales de IA dice que “mitigar el riesgo de extinción a causa de la IA debería ser una prioridad mundial junto con otros riesgos como las pandemias y la guerra nuclear.

¿Tan grave es la amenaza? ¿Está en juego realmente nuestra extinción?

Sabemos que las armas nucleares o las pandemias pueden devastar el mundo. De la IA, en cambio, sólo tenemos conjeturas y, de momento, la opinión pública está muy lejos de percibir que la IA pueda provocar efectos de esa magnitud.

A diferencia de otras amenazas, la IA se está desplegando en un ambiente de euforia y fascinación. La investigación y el desarrollo de la IA se han convertido en los mayores vectores de crecimiento económico y poder político por el que compiten las grandes potencias en una carrera en la que nadie quiere quedar atrás. Los proyectos basados en IA se subvencionan con ingentes cantidades de dinero público. Las grandes corporaciones tecnológicas pugnan por dominar y acelerar el desarrollo de la IA.

En ese contexto, ¿cómo vamos a ser capaces de percibir el peligro? Si desde todos los ángulos se nos estimula a ser agentes o usuarios entusiastas de la IA, si según todos los mensajes que nos llegan la IA es el futuro, ¿cómo asumir que también debemos temerla? ¿Cómo acelerar y frenar a la vez?
RELACIONADO

George Soros: "De todas las amenazas, la IA es la peor de todas"

El magnate George Soros considera que de todas las crisis por las que atraviesa el mundo, la amenaza de la inteligencia artificial es la principal.

La IA es útil para las sociedades cerradas y plantea una amenaza mortal a las sociedades abiertas. Eso se debe a que la IA es particularmente buena en la producción de instrumentos de control que las sociedades cerradas pueden usar para vigilar a sus súbditos.

Estoy totalmente de acuerdo con los expertos que sostienen que hay que regularla. Pero las regulaciones tienen que ser de alcance mundial porque el incentivo para hacer trampas es fuerte: quien no cumpla la regulación obtendrá una ventaja indebida.

Por desgracia, crear regulaciones de alcance mundial es imposible porque el mundo se debate en un conflicto entre dos sistemas de gobernanza diametralmente opuestos, con ideas muy diferentes respecto de lo que hay que regular y por qué. Project Syndicate


Gary Marcus: "Si no permitimos que las farmacéuticas se autoregulen, por què debería hacerlo la IA"

Gary Marcus es uno de los expertos que habló ante el Senado de los Estados Unidos el día en que compareció Sam Altman, CEO de Open AI. En su opinión existe el peligro de que los gobiernos maquillen sus acciones legislativas de control de la IA y cedan la iniciativa a la autoregulación del sector.

Si nunca dejaríamos que la industria farmacéutica se autorregulara por completo, tampoco deberíamos dejar que la IA lo haga. No importa lo que diga Microsoft, OpenAI o Google. Importa lo que digan los gobiernos. O se enfrentan a las Big Tech, o no lo hacen; el destino de la humanidad puede depender de ello. Gary Marcus

Timnit Gebru: "Atribuir agencia a una herramienta es un error y una táctica de distracción"

En el RightsCon celebrado la pasada semana en Costa Rica la mayoría de participantes criticó los vaticinios de extinción divulgados en las últimas semanas. Una de las participantes fue Timnit Gebru, conocida tras su despido del comité ético de Google.

Atribuir agencia a una herramienta es un error y una táctica de distracción. Quiénes hablan así son literalmente las mismas personas que han invertido miles de millones de dólares en las empresas de IA. Hace solo unos meses, Geoff Hinton elogiaba GPT4, y ahora, de repente, lo considera un riesgo existencial. ¿Por qué la gente se toma en serio a estas personas? Technology Review


- Por què los impulsores de la IA firman tantos manifiestos apocalípticos El Pais

- Daños de la IA generativa. Informe del Electronic Privacy Information Center. Epic

¿Con quién hablo?

La empresa especializada en inteligencia artificial AI21Labs ha analizado más de 10 millones de conversaciones entre personas y entre personas y máquinas.
Después de analizar los primeros dos millones de conversaciones, los principales resultados indican que:
  • El 68% de las personas acertaron cuando se les pidió que determinaran si hablaron con un ser humano o con un bot de IA.
  • A la gente le resultaba más fácil identificar a un compañero. Al hablar con personas, los participantes acertaron en el 73% de los casos. Al hablar con los bots, los participantes acertaron en solo el 60 % de los casos.
  • Las personas tienden a identificar los errores como algo propio de los humanos. Cuando identificaron errores en los mensajes de sus interlocutores, el primer instinto de muchos participantes fue asumir que estaban hablando con otros humanos, a pesar de que la mayoría de los chatbots fueron entrenados para cometer este tipo de errores.
  • Algunos participantes creyeron que si su interlocutor era demasiado educado y amable, probablemente era un bot. La percepción general es que las personas, especialmente cuando se comunican online, tienden a ser groseras y descorteses. AI21

My AI, un "amigo" virtual de Snapchat, programado para enganchar a los usuarios

My AI es un chatbot de Snapchat lanzado en febrero que la plataforma promociona como un "amigo" virtual. Se puede personalizar con un avatar de rasgos humanos y se ofrece para sugerir ideas y recomendaciones gracias a su conexión con ChatGPT. En realidad, se dedica a capturar datos de las conversaciones para personalizar mensajes publicitarios.

Al identificarlo como un "amigo" de rasgos humanos y técnicas de conversación que estimulan los sentimientos logra establecer un vínculo de confianza que hace que los usuarios compartan fácilmente datos personales y privados. Dataethics

Los sanitarios reconocen que los chatbots son más empáticos
¿Puede un chatbot proporcionar respuestas a las preguntas de los pacientes que tengan calidad y empatía comparables a las escritas por los médicos? La respuesta es sí.

El grupo de profesionales de la salud que evaluó un estudio encontró más empáticas y de mayor calidad las respuestas del chatbot que las del médico, el 79 de las veces. Jama Network // El País

LEER +
Erik Larson es un científico e investigador pionero en el procesamiento del lenguaje natural, además de empresario tecnológico.

En el libro expone que aunque los mesías del futuro insisten en afirmar que la inteligencia artificial pronto eclipsará las capacidades de las mentes humanas, la realidad es que ni estamos en el camino hacia el desarrollo de máquinas inteligentes ni sabemos siquiera dónde podría hallarse ese camino.

"La exageración alrededor de la IA no solo es mala ciencia, también es mala para la ciencia". Shackelton Books

+ TEMAS

- Finlandia: Los escolares aprenden a verificar noticias. Slate

- Un juez de Texas ordena que el contenido generado por IA no sea válido en los tribunales. Metanews

linkedin twitter 
Email Marketing Powered by MailPoet