Ante la velocidad que está alcanzado la inteligencia artificial no sabemos si dejarnos llevar por la fascinación o considerar seriamente su amenaza
Cada mes, cada semana, cada día hay novedades. Lo penúltimo se llama Perplexity.ai, un buscador que utiliza un generador automático de texto para presentar resultados. Para este año se anuncian nuevas aplicaciones. Se acelera la ya de por sí acelerada carrera de la inteligencia artificial.
Una característica de la velocidad es que absorbe todo el esfuerzo del corredor. Concentrado en no perder posiciones, apenas le queda tiempo ni recursos para otra cosa que no sea enfocar su propia carrera. Si hay consecuencias, no las ve.
Cuando un corredor domina la competición puede relajarse y tomar ciertas precauciones, pero cuando surgen pequeños e inesperados contrincantes más ágiles y menos cautos debe acelerar de nuevo. Es el caso de Open AI, una relativamente pequeña empresa que ha inquietado el dominio de Google. Y ahora Google vuelve a acelerar para que la IA generativa no le altere el liderazgo.
Lo comenta la revista Axios: “Cualquier restricción que gigantes como Google y Meta hayan adoptado hasta ahora podría desaparecer para demostrar que no se han quedado atrás.”
Google ha respondido anunciado la inminente puesta en marcha de Bard, un chatbot que se integrará con su aplicación de búsqueda. También ha publicado un documento que muestra los avances de MusicLM, un generador de música a partir de indicaciones de texto, y otro dedicado a la generación de vídeo, Dreamix.
Una carrera para resolver problemas que no existen
¿Traerá algo bueno esta acelerada carrera por controlar la generación de textos, imágenes, música y código informático? ¿Aportan algún servicio valioso? ¿Resuelven algún problema o los crean?
En Data&Society creen que los generadores automáticos son la respuesta de la élite tecnológica a un problema que no existe. “El esfuerzo se ha puesto en correr no en resolver un problema”. Y no ha habido tiempo para valorar si eso causará más beneficios que perjuicios o será al revés. Ni de hacernos las preguntas adecuadas.
“Preguntamos si las respuestas de la máquina están sesgadas. Preguntamos si sus respuestas son correctas. Preguntamos cuál es la mejor manera de garantizar que no se utilice para cometer irregularidades. Actuamos como niños bien educados del capitalismo tecnológico, como si todos buscáramos siempre soluciones constructivas. Mientras que lo que deberíamos haber hecho era dirigir críticas implacables hacia el lanzamiento descaradamente torpe de una tecnología que, de un solo golpe, alteró el sector educativo de todo el mundo sin ofrecer ni un minuto de tiempo de preparación. Nadie tuvo tiempo de preguntar cómo la tecnología podría afectar a la investigación y a la educación.”
Se han publicado muchas reacciones críticas con los sistemas de IA generativa, pero también hay quien las acepta y no le ve tantos problemas.
Reacciones negativas
– Muchos profesores han expresado sus quejas por tener que replantear los sistemas de evaluación. Nadie duda que los estudiantes utilizarán estos sistemas para elaborar sus trabajos. En Estados Unidos, se calcula que un 30% de estudiantes ya los usan, y eso que apenas llevamos dos meses desde la aparición de ChatGPT. Como prevención, Nueva York ha prohibido su uso en las escuelas.
-En California, algunos colectivos de artistas plásticos han interpuesto las primeras demandas por uso indebido de sus obras.
– Algunos van más allá y advierten que son un peligro para la democracia. Los profesores Nathan E. Sanders y Bruce Schneier del Belfer Center de Harvard creen que estas herramientas pueden beneficiar a los lobbies y dificultar los difíciles equilibrios de los legisladores.
“ChatGPT podría redactar automáticamente alegaciones en los procesos regulatorios. Podría escribir cartas para su publicación en periódicos. Podría comentar noticias, entradas de blogs y publicaciones en redes sociales millones de veces al día. Podría imitar el trabajo que hizo la Agencia Rusa de Investigación de Internet en su intento de influir en las elecciones norteamericanas de 2016, pero sin necesidad de un presupuesto multimillonario de la agencia ni cientos de empleados.”
– O incluso debilitar la propia concepción de la ciencia. Blayne Haggart, del Centre for International Governance Innovation (Canadá), considera que el problema de estos sistemas es que entronan el culto a los datos como el eje del conocimiento científico. Se sustituye la comprensión científica por la correlación y eso destruye la esencia de lo que hemos entendido hasta ahora por ciencia.
“ChatGPT no está automatizando el proceso de escritura o investigación. Está creando una forma de conocimiento completamente nueva, una en la que las correlaciones confieren legitimidad, y en la que la evaluación de la veracidad de estas correlaciones se produce tras bambalinas, integrada en las decisiones de programación y el trabajo oculto. Es un enfoque que coloca la comprensión científica en un papel secundario y, en el mejor de los casos, evaluativo”.
Reacciones positivas
– La revista Nature las da por buenas siempre que sirvan de asistencia a la redacción de artículos, no como autoras.
– Profesionales del marketing y diseñadores las están usando como una herramienta para ahorrarse trabajo. Incluso algunos profesores las aceptan como un mal menor.
– En los negocios, el capital riesgo ha encontrado un nuevo nicho de inversión. Se vislumbra una aparición masiva de nuevas startups que desarrollarán las potencialidades de la IA generativa. La inversora Grace Isford, de Lux Capital, dice que
“estamos ante un punto de inflexión: vemos solo la punta del iceberg de los muchos casos de usos verticales que tendrán los grandes modelos de lenguaje, más allá de las industrias creativas, en ámbitos como la biología, la fabricación y la atención médica. Es probable que la IA se integre a la perfección en los flujos de trabajo diarios”.
Mientras tanto, los usuarios andamos entre fascinados, abrumados y perplejos (Perplexity, gran nombre). Tan perplejos que no sabemos a qué atenernos: ¿adoptarlos sin reparos o prevenirnos ante los desperfectos que puedan causar, ahora que ya sabemos de qué va eso de la disrupción digital?
2 comments
Os dejo con otro análisis (y libro) sobre el tema:
https://www.danmcquillan.org/chatgpt.html
Bueno, hoy Google ha perdido $100bn al anunciar su patético chatbot: https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/
Lo mejor de todo esto es ver como Google entra en pánico con Sergei haciendo cambios tras anyos sin tocar una línea de código y como la empresa ya aparece tener muestras de ser un barco a la deriva. Uno hubiese pensado que el monopolio del buscador hubiese caído en la obsolescencia ante una nueva forma de búsqueda superior… y tan solo ha bastado un ML absurdo entrenado con toda la porquería que hay en Internet. Perplejidad, indeed.
No os perdáis este tampoco: https://twitter.com/kliu128/status/1623472922374574080