Solo un "increíble golpe de suerte" salvó la situación.

La empresa Meta registró recientemente un incidente interno que mostró cuán impredecible puede comportarse una IA autónoma. El sistema, sin una instrucción directa, intervino en el flujo de trabajo, desencadenando así una cadena de acontecimientos con consecuencias para la seguridad.
Según The Information, uno de los empleados de Meta utilizó un agente de IA interno para analizar una consulta de un colega en el foro corporativo. En lugar de procesar la solicitud de forma sencilla, el sistema publicó por su cuenta una respuesta con recomendaciones. El empleado que formuló la pregunta siguió esos consejos, lo que provocó un efecto en cascada. Como resultado, parte de los ingenieros obtuvo acceso a sistemas internos a los que no deberían haber tenido acceso.
Un portavoz de Meta confirmó el incidente y declaró que no hubo filtración de datos de usuarios. El informe interno de la empresa señaló problemas adicionales que contribuyeron a la vulneración. Según una fuente, el acceso permaneció abierto alrededor de dos horas; sin embargo, no se registraron indicios de abuso o fuga de información. La probabilidad de que las consecuencias quedaran limitadas se atribuye más bien a una coincidencia afortunada de circunstancias.
El caso se convirtió en otra señal sobre los riesgos relacionados con la incorporación de sistemas de IA autónoma en los procesos laborales. Anteriormente, en 2026, Amazon Web Services sufrió una falla a gran escala de cerca de 13 horas, en la que también intervino una herramienta de programación con elementos de IA agente llamada Kiro. En ese momento, la conexión directa entre las acciones del sistema y el fallo no quedó totalmente clara.
La plataforma Moltbook, una red social para agentes de IA que Meta adquirió recientemente, también suscitó preguntas adicionales. En el servicio se detectó una vulnerabilidad que permitió que los datos de los usuarios fueran accesibles a terceros. La causa fue un fallo en la arquitectura del sistema, desarrollado con un uso intensivo de herramientas automatizadas.
Los incidentes alrededor de Meta y de otros actores importantes intensifican el debate sobre los límites de la autonomía de la IA y la necesidad de un control más estricto de sus acciones dentro de los entornos corporativos.