Foto: Max Bender en Unsplash

Usos y abusos del camuflaje algorítmico

0 Shares
0

La IA ha reducido las barreras de entrada para los defraudadores. Las herramientas a su alcance se sofistican. Para defenderse, los usuarios solo disponen del sentido común  

 

Tres recientes informes analizan el crecimiento del camuflaje algorítmico, esto es, la capacidad de confundir a las personas cuando humanos y máquinas intercambian sus funciones y uno se hace pasar por el otro.  

Caso 1. Máquinas que simulan ser humanos

Un equipo de investigadores suizos logró que, durante varios meses, chatbots entrenados debatieran con usuarios reales en el foro de Reddit r/changemyview. El objetivo era analizar la capacidad de la inteligencia artificial para modificar la opinión de las personas, escribe Thomas Telving en Dataethics.eu. 

Mediante 30 cuentas falsas y más de 1,700 interacciones, los chatbots lograron modificar la posición de partida de, por lo menos, 100 usuarios. El estudio viene a confirmar lo que los investigadores temían: la IA no solo participa en nuestras conversaciones, sino que puede moldearlas sin que nos demos cuenta.

Experimentos como este demuestran que el camuflaje algorítmico puede convertirse en una herramienta de manipulación masiva. En el ámbito social y comercial, empresas como Meta presentan como «amigos digitales» sistemas conversacionales automatizados. Lo que comienza como una funcionalidad inocua basada en chatbots que atienden nuestras dudas va derivando hacia un modelo de negocio que trata de monetizar las relaciones artificiales que se establecen entre humanos y máquinas disfrazadas de humanos.

En el ámbito político, la capacidad de la IA para influir en los debates públicos abre la puerta a escenarios distópicos. Por ejemplo, campañas electorales impulsadas por ejércitos de perfiles falsos hiperpersonalizados, capaces de adaptar su discurso al de millones de votantes en tiempo real con la intención de influir en ellos. No es ciencia ficción: lo hace el partido Dansk Folkeparti en Dinamarca, mientras líderes como Donald Trump y gobiernos como el ruso se saltan cualquier límite ético en pos de la influencia.

Otro estudio afirma que la misma tecnología puede servir para lo contrario y usarse para combatir la desinformación. Chatbots bien diseñados podrían neutralizar teorías conspirativas o contrarrestar discursos de odio. Pero aquí surge el dilema ético central: ¿quién decide qué es «verdad» en un ecosistema algorítmico?

La generalización del camuflaje, ya sea para facilitar la manipulación o para impedirla, nos obliga a preguntarnos: ¿estamos dispuestos a ceder el control del discurso público a máquinas que operan en las sombras?

Caso 2. Humanos que simulan ser máquinas

Un equipo de investigadores de Data & Society se dedicó a estudiar cómo y por qué las personas usan chatbots para mejorar su bienestar emocional. “Reclutamos a participantes que reconocían relacionarse con chatbots y les pagamos para compensar su tiempo y nos respondieran a unas cuantas preguntas. Al principio, todo parecía rutinario, pero enseguida vimos que algo no cuadraba”.

Resultó que, durante las entrevistas, algunos de los participantes utilizaban ChatGPT para generar sus respuestas. Los investigadores detectaron diversas inconsistencias: respuestas llenas de jerga psicológica pero extrañamente vagas, supuestas ubicaciones que no coincidían con la hora del día visible en pantalla, datos contradictorios… Tras 25 minutos de interrogatorio, un participante confesó: «en realidad, no uso mucho estas herramientas «.

“Nuestro participante explicó cómo personas como él usan habitualmente ChatGPT para anticipar las probables preguntas de la entrevista y ensayar las respuestas con la esperanza de optar a estudios de investigación remunerados, manipulando así el proceso de investigación”. (Data & Society)

Lo revelado no era una simple estafa, sino una estrategia de supervivencia económica, una manera fácil de ganar algo de dinero.

Para este tipo de investigaciones, el desafío ya no es solo recopilar historias auténticas, sino interpretar verdades que llegan mediadas, curadas o coescritas por máquinas.

Caso 3. El sentido común como única defensa 

La inteligencia artificial no solo ha democratizado el acceso a herramientas creativas, sino también a prácticas de fraude antes reservadas a delincuentes con recursos. Hoy, cualquier estafador puede suplantar identidades, clonar voces o generar documentos falsos con un realismo inquietante. El informe Scam GPT, también de la organización Data & Society, recopila diversos casos que ilustran cómo la IA facilita industrializar el engaño, desde estafas masivas hasta ataques hiperpersonalizados.

Uno de los métodos más sofisticados es el «pig butchering», que consiste en establecer conexiones emocionales y engañar a las víctimas mediante técnicas de deepfake y traducción automática en tiempo real.  A menudo, los propios interlocutores/estafadores son víctimas explotadas en «granjas de fraude» ubicadas en Asia que operan a escala global.

Otro ejemplo es la suplantación de ejecutivos: un empleado de la empresa británica Arup transfirió 25 millones de dólares a una cuenta falsa tras recibir una videollamada que simulaba ser uno de sus superiores. Se demostró que la IA puede replicar no solo la apariencia, sino también los roles y los comportamientos.

Pero no todas las estafas son tan complejas. Muchas se basan en la automatización de lo cotidiano. Por ejemplo, correos que simulan facturas de empresas reales. La clave está en la capacidad de la IA para depurar los errores que antes delataban un fraude (gramática pobre, diseños cutres) y adaptarse a contextos específicos. En WeChat, los estafadores usan mensajes adaptados para engañar a comunidades chinas, mientras que en LinkedIn, ofertas de trabajo falsas se personalizan con datos extraídos de perfiles públicos.

La IA también ha perfeccionado el engaño emocional. En los casos de sextorsión, las víctimas reciben amenazas con imágenes íntimas generadas por IA, mientras que en los secuestros virtuales, voces clonadas de familiares simulan todo tipo de emergencias, algunas difícilmente detectables. 

La IA ha reducido las barreras de entrada para los defraudadores al permitir que agentes sin habilidades técnicas ejecuten estafas hasta hace poco inalcanzables, o que una industria globalizada del fraude depure las herramientas para atacar por todos los flancos la credulidad de los usuarios. Mientras tanto, estos solo disponen de una herramienta para enfrentarse en solitario al fraude: su propio sentido común.

Joan Rosés

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *