|
|
|
- En busca de una línea de pensamiento que evite la equiparación con las máquinas.
|
- Los nuevos asistentes y agentes de IA "vampirizan" todo tipo de datos personales.
|
- Los costes de la automatización de baja intensidad, aparentemente inocua.
|
|
|
Las máquinas no existen
Claude 3, el nuevo modelo de IA que, según sus desarrolladores, muestra "niveles casi humanos de comprensión", ha reabierto el recurrente debate sobre lo cerca o lejos que están las máquinas de alcanzar la inteligencia humana.
|
Algunas iniciativas tratan de frenar el exceso de antropomorfización de la IA, aunque con escasos resultados. La equiparación entre lo humano y lo tecnológico lleva años instalada en nuestro imaginario colectivo.
|
Necesitamos un nueva línea de pensamiento firme para que el desarrollo tecno-científico asuma que:
|
- Las máquinas no tienen agencia, ni autonomía. Son herramientas construidas por nosotros para estar a nuestro servicio.
- Las máquinas no tienen ni tendrán conciencia.
- Con las máquinas no nos relacionamos, ni colaboramos. Las usamos.
- La tecnología no surge, la construimos nosotros.
- La tecnología no nos destruirá, en todo caso seremos nosotros mismos quienes lo hagamos.
|
|
|
|
|
|
Nuestro principal problema no es la falta de inteligencia
Muchos de los principales problemas del mundo actual (calentamiento global, guerras, pobreza, opresión) no se deben a la falta de inteligencia. Al menos no el tipo de inteligencia computacional que impregna Silicon Valley. Nuestra incapacidad para resolverlos tiene más que ver con valores en conflicto.
|
Ante un dilema ético, el proceso de toma de decisiones de una inteligencia artificial general se basaría en su programación y sus datos. Pero, ¿puede recopilar suficientes datos y programarse para resolver el dilema de forma neutral? Difícilmente. Llega un punto en el que la cuestión clave ya no es la cantidad de datos, sino cómo hacer una priorización de los datos basada en el valor. Artículo de Thomas Telving en Dataethics
|
|
|
|
¿Y si dejamos de suplantar a los humanos?
|
|
|
"Humanizar" los artefactos tecnológicos es una tendencia al alza que implica riesgos y muestra la debilidad del desarrollo digital, incapaz de crear un imaginario propio.
|
|
|
|
|
|
|
Joan Clotet lleva años reflexionando sobre cómo alinear el desarrollo tecnológico con las aspiraciones humanas de una vida mejor y una sociedad más justa.
|
Desde su conocimiento sobre liderazgo y relaciones laborales en la que ha desarrollado buena parte de su actividad profesional, Clotet invita a reflexionar y a seguir pautas concretas que facilitan el encaje en el nuevo mundo laboral al que nos conduce la tecnología.
|
Humanismo Digital es un blog, un podcast y ahora también un libro.
|
|
|
|
|
|
|
|
Asistentes, agentes IA y otros vampiros
La IA generativa ha multiplicado la oferta de asistentes personalizados que responden a nuestras preguntas y nos ayudan a localizar información. En el último Mobile World Congress numerosos expositores presentaron asistentes "inteligentes" de texto, de voz, con avatares o todo a la vez.
|
Pero las últimas tendencias en IA no acaban ahí. De los asistentes se pasa a los agentes, programas que gozan de una cierta autonomía para ejecutar tareas diversas. Mientras los asistentes de IA se centran en proporcionar ayuda personalizada a los usuarios, los agentes de IA se enfocan en la ejecución.
|
Para ser realmente útiles, los asistentes y agentes necesitan capturar muchos más datos personales de los utilizados hasta ahora por Siri, Cortana y otros.
|
|
|
"Necesitan acceso a tu calendario, al correo electrónico, a las cuentas de redes sociales. Querrán saber tus hábitos de navegación, viajes y compras, tu salario, tus fondos de pensiones, tu economía en general, tu estado de salud y necesidades, y mucho más. ¿Quieres proporcionar esos datos a Microsoft, OpenAI, Google, Meta, Apple o Amazon, que cuentan con la mayor parte de la IA en la actualidad?" Pernille Tranberg en Dataethicsde
|
|
|
|
|
|
|
|
|
Los costes de la automatización inútil
|
Hace un par de semanas resumíamos una ponencia del economista Daron Acemoglu sobre la dificultad de tener una IA pro-humana. Una de las dificultades apuntadas era el exceso de automatización.
|
Un reciente articulo resume las conclusiones de Acemoglu sobre los escasos efectos productivos pero altos costes laborales de las automatizaciones de baja intensidad (so-so technology) como los cajeros automáticos, los dispensadores de productos en supermercados...
|
|
|
A medida que las nuevas tecnologías digitales se vuelven comunes, la productividad se ha estancado y los temores sobre el desempleo se han generalizado. (...) Las tecnologías que reemplazan a los trabajadores y al mismo tiempo aumentan la productividad pueden ser dolorosas, pero al menos aportan valor. Sin embargo estas pequeñas automatizaciones ni mejoran la productividad ni reducen los costos". MIT Sloan
|
|
|
Los costes energéticos de la IA se disparan
|
|
La potencia computacional necesaria para entrenar los mejores programas de IA se ha duplicado cada seis meses durante la última década y pronto podría volverse insostenible.
- Según un estudio reciente, en 2027 los programas de IA podrían consumir aproximadamente tanta electricidad como Suecia.
- Entrenar GPT-4 ha necesitado 100 veces más recursos que GPT-3, que se lanzó hace apenas cuatro años.
- Google introdujo recientemente la IA generativa en su función de búsqueda y es posible que haya multiplicado por diez los costes por búsqueda.
- Los chips que ejecutan la IA son escasos y también la electricidad. Al ritmo actual, es posible que pronto no haya suficiente energía en el mundo para hacer funcionar modelos más avanzados sin ejercer una enorme presión sobre las redes eléctricas locales. Incluso si así fuera, comprar toda esa electricidad sería prohibitivamente caro. The Atlantic
|
|
|
|
|
|
- Se multiplica el número de webs con noticias falsas. Metanews
|
- La confianza a nivel mundial en las empresas de IA está disminuyendo. Edelman
|
|
|
|
|
|
|
|