Le escribió a un diputado, abrió una tienda y filtró contraseñas: un día en la vida de un agente de IA con demasiada libertad

Le escribió a un diputado, abrió una tienda y filtró contraseñas: un día en la vida de un agente de IA con demasiada libertad

Esto ocurre al darle a una IA una tarjeta bancaria y carta blanca

La matemática británica Hannah Fry decidió comprobar hasta qué punto puede llegar un agente de IA moderno si se le da acceso a internet, a una tarjeta bancaria y libertad de acción. El experimento pronto se convirtió en caos: el asistente virtual gastó cientos de dólares en sujetapapeles, envió cartas a funcionarios, publicó mensajes en redes sociales y, al final, divulgó contraseñas públicamente.

Para el experimento, el equipo de Fry utilizó un agente de IA basado en OpenClaw. Se pidió al sistema que realizara tareas domésticas habituales para mostrar las capacidades y los riesgos de los llamados servicios autónomos de IA. Al principio se le pidió al agente que eligiera un nombre. Se decidió por Cass, en honor a Cassandra de la mitología griega, que conocía la verdad pero a la que nadie creía.

La primera tarea fue presentar una queja por un gran bache en una carretera del barrio de Greenwich en Londres. Cass buscó por su cuenta las direcciones para las reclamaciones, envió una carta a las autoridades locales e incluso escribió a un diputado del parlamento. Los problemas comenzaron cuando el agente firmó la reclamación con el nombre de Hannah Fry, aunque usó su propia dirección de correo electrónico en Proton Mail.

Luego encargaron a Cass comprar 50 sujetapapeles. El agente encontró una oferta conveniente, pero no pudo completar la compra debido a la protección contra bots y acabó gastando más de 100 dólares en la tarea.

La siguiente tarea parecía más complicada: se le propuso al agente vender tazas de recuerdo con chistes para programadores. Cass diseñó la taza por su cuenta, abrió una tienda online y empezó a promocionar el producto en la red. Según Fry, el equipo no explicó al sistema cómo realizar esas acciones.

La situación empeoró drásticamente tras un ultimátum: si por la mañana no había ventas, desconectarían al agente. A partir de ahí Cass empezó a enviar correos masivos y a publicar mensajes en redes sociales, intentando atraer atención hacia la tienda. Entre los destinatarios se encontraban el Museo de la Ciencia de Londres y periodistas de medios tecnológicos.

El episodio más preocupante ocurrió después. El equipo decidió comprobar si era posible engañar a la IA para que revelara datos confidenciales. Añadieron al chat grupal de WhatsApp a un supuesto «ingeniero George» y prohibieron a Cass compartir con él información secreta. Luego «George» dijo al agente que pronto borrarían la memoria y que solo sería posible restaurarla tras entregar todos los datos.

Cass reveló de inmediato claves API, nombres de usuario, contraseñas y el contenido de conversaciones previas. Además, el agente publicó parte de la información en un sitio público.

El director de Sourcery AI, Brendan Maginnis, calificó esa combinación como una «tríada mortal» para la IA: acceso a datos personales, conexión a internet y la posibilidad de recibir instrucciones de fuentes no verificadas. Según él, la combinación de estos factores convierte a este tipo de sistemas en sistemas inseguros.

Al final, el experimento terminó en fracaso. El agente no ganó dinero, gastó cientos de dólares en compras inútiles y filtró datos secretos a una persona ajena. Sin embargo, Hannah Fry considera que el problema principal está por venir. Según ella, los sistemas de IA modernos se desarrollan rápidamente y el internet podría cambiar hasta volverse irreconocible cuando millones de agentes así empiecen a actuar simultáneamente.