«Oigan, equipo de seguridad, tienen un agujero en la defensa»: ChatGPT encontró una brecha en la red corporativa y la explotó a fondo.

«Oigan, equipo de seguridad, tienen un agujero en la defensa»: ChatGPT encontró una brecha en la red corporativa y la explotó a fondo.

Un incidente fortuito sacó a la luz un grave fallo en la confianza depositada en servicios populares

image

Una consulta de trabajo corriente se convirtió inesperadamente en motivo de una conversación seria sobre los riesgos de la inteligencia artificial. Un empleado de la pequeña empresa Sola Security solo preguntó a ChatGPT sobre la configuración de inicio de sesión único, pero en fracciones de segundo el sistema logró acceder a cientos de documentos internos. La situación mostró lo imperceptible que pueden ser las integraciones de IA y lo difícil que es controlar estos procesos.

El incidente ocurrió a través de una conexión a Google Drive. Tras una sola consulta, el chatbot extrajo en 42 milisegundos más de 400 archivos de la empresa. En la selección estaban hojas de ruta de productos, datos financieros, planes de clientes y documentos internos sobre seguridad. Al mismo tiempo, el sistema de protección no registró advertencias ni acciones sospechosas.

En Sola Security subrayan que no se trató de un ataque. El acceso se produjo mediante una conexión estándar de OAuth, que los empleados habían aprobado con antelación. Este tipo de integraciones hace tiempo que son una práctica habitual. Sin embargo, la propia lógica de funcionamiento planteó dudas. En lugar de buscar de forma puntual el archivo requerido, el sistema examinó prácticamente todo el contenido del disco.

La empresa llamó la atención sobre un problema más amplio: el llamado 'IA en la sombra'. Con ello se entiende cualquier proceso con participación de inteligencia artificial que quede fuera del campo de visión y control de los especialistas. No se trata solo de servicios no autorizados, sino también de integraciones completamente oficiales ya aprobadas dentro de la organización.

La situación se agrava porque los permisos otorgados resultaron ser demasiado amplios. Un solo consentimiento del usuario dio a la aplicación acceso a todos los archivos, contactos y a la estructura del catálogo corporativo. Esos tokens siguen funcionando durante semanas sin necesidad de reautorizar. En este caso el acceso permaneció activo 21 días y se utilizó solo después de una nueva consulta.

El proceso se ejecutó completamente en el lado del servidor. Las solicitudes a la API de Google se realizaron desde la infraestructura en la nube, sin la participación del dispositivo del empleado. Como resultado, los datos salieron del entorno corporativo hacia servidores externos, donde la empresa ya no podía controlarlos.

Entre los especialistas no hay consenso sobre si lo ocurrido debe considerarse una filtración. Formalmente el sistema actuó dentro de los permisos otorgados. Sin embargo, Sola Security señala el riesgo principal: la falta de transparencia. Los datos abandonaron la infraestructura de la empresa y el hecho se descubrió por casualidad semanas después.

El caso mostró un punto débil de los sistemas de seguridad actuales. La mayoría de las herramientas rastrean la actividad de los usuarios, pero no tienen en cuenta el trabajo autónomo de la IA a través de APIs. Cuando los datos se mueven sin la intervención humana, los mecanismos de control habituales dejan de funcionar.