Una IA creó un exploit de día cero; la gente no se dio cuenta. Google lo detectó, pero apenas

Una IA creó un exploit de día cero; la gente no se dio cuenta. Google lo detectó, pero apenas

Zero-day por encargo: pides a la IA y te entregan un exploit; Google dice que ya es una realidad.

image

Los ciberdelincuentes empezaron a emplear la inteligencia artificial no solo para redactar correos de phishing y programas maliciosos, sino también para buscar vulnerabilidades de día cero. Google informó que por primera vez registró un caso en el que los atacantes, probablemente, crearon un exploit con ayuda de la inteligencia artificial para un ataque masivo futuro. Los especialistas de la empresa detectaron el problema antes de que los delincuentes comenzaran a explotarlo.

En el informe del Grupo de Inteligencia sobre Amenazas de Google se afirma que grupos de China y Corea del Norte emplean activamente modelos de lenguaje a gran escala para analizar código, buscar errores y crear exploits. Para sortear las restricciones, los atacantes inducen a los modelos a comportarse como auditores de seguridad o como especialistas en dispositivos integrados. En uno de los casos, los hackers examinaban el firmware de routers TP-Link y la implementación del protocolo de transferencia de archivos OFTP.

Google también descubrió que miembros del grupo norcoreano APT45 enviaban a los modelos miles de consultas para la verificación automática de vulnerabilidades conocidas y exploits disponibles. Los hackers probaban simultáneamente las herramientas OpenClaw y OneClaw en entornos especialmente preparados con software vulnerable para aumentar la fiabilidad de los ataques antes de su aplicación real.

El informe presta atención a una campaña delictiva vinculada a una vulnerabilidad en una herramienta de administración web de código abierto. El fallo permitía eludir la autenticación de dos factores cuando se disponía de credenciales válidas. Según Google, la estructura del código y los elementos característicos del script indican el uso de inteligencia artificial en el desarrollo del exploit. Los especialistas detectaron en el código comentarios instructivos detallados, una calificación CVSS inexistente y un formato en Python típico de los modelos de lenguaje.

En Google consideran que los modelos modernos son especialmente eficaces para encontrar errores lógicos que los escáneres tradicionales suelen pasar por alto. En lugar de analizar corrupciones de memoria o un tratamiento incorrecto de datos, los modelos pueden entender la intención del desarrollador y detectar contradicciones en la lógica de comprobación de acceso.

Los atacantes también empezaron a utilizar la inteligencia artificial para enmascarar código malicioso. Los programas maliciosos CANFAIL y LONGSTREAM contenían grandes cantidades de código inútil creado por modelos de lenguaje para confundir el análisis. En LONGSTREAM, los especialistas encontraron decenas de comprobaciones sin sentido sobre el cambio al horario de verano, añadidas únicamente para simular actividad legítima.

Otro ejemplo de la nueva táctica es el backdoor para Android PROMPTSPY. El programa malicioso utiliza Gemini para analizar la interfaz del dispositivo y ejecutar acciones en la pantalla por sí mismo. PROMPTSPY obtiene la estructura de la interfaz mediante las funciones de accesibilidad de Android, envía los datos al modelo Gemini 2.5 Flash Lite y recibe comandos listos — toques o deslizamientos. El backdoor puede interceptar patrones gráficos y códigos PIN, además de bloquear intentos de eliminar la aplicación mediante elementos invisibles en la interfaz.

Google señala que los atacantes avanzan gradualmente del uso habitual de chatbots hacia sistemas autónomos capaces de realizar reconocimiento por sí mismos, analizar la infraestructura de la víctima y coordinar herramientas de ataque. Para estas tareas se usan las plataformas Hexstrike y Strix, que ayudan a buscar y verificar vulnerabilidades de forma automática.

Al mismo tiempo, aumenta el número de ataques contra el ecosistema de inteligencia artificial. La agrupación TeamPCP, también conocida como UNC6780, comprometió varios repositorios populares de GitHub e inyectó componentes maliciosos en paquetes para trabajar con modelos de lenguaje, incluidos LiteLLM. Tras la compromisión, los atacantes robaban claves de AWS y tokens de GitHub de los sistemas de compilación, y luego entregaban el acceso a operadores de ransomware.

En Google creen que los desarrolladores todavía protegen con éxito los propios modelos de lenguaje a gran escala contra ataques directos, por lo que los hackers se han volcado hacia bibliotecas externas, complementos y componentes relacionados con la inteligencia artificial. La compañía continúa reforzando la protección de Gemini, bloqueando cuentas maliciosas y usando sus propios modelos para detectar y corregir vulnerabilidades automáticamente.