Ya es tan barato burlar las defensas como pagar una suscripción mensual a una IA.

La idea de que la inteligencia artificial puede no solo encontrar vulnerabilidades, sino también convertirlas por sí misma en ataques completos, durante mucho tiempo pareció una exageración. Sin embargo, el caso reciente con el modelo Claude de Anthropic amplió bruscamente los límites de lo posible — y obligó a los especialistas a hablar de la reducción del tiempo entre la publicación del problema y la aparición de un exploit funcional a pocas horas.
Claude logró crear de forma autónoma dos exploits remotos operativos para una vulnerabilidad del núcleo de FreeBSD en apenas cuatro horas de cálculo. El investigador Nicholas Carlini contó que dejó el sistema sin supervisión y más tarde encontró una solución lista que sorteó varios desafíos técnicos complejos sin intervención humana. Como resultado, el ataque permite obtener acceso root a un servidor desprotegido en menos de un minuto.
Se trata de la vulnerabilidad CVE-2026-4747 en el módulo RPCSEC_GSS, encargado de la autenticación. El fallo es un desbordamiento del búfer de pila y es accesible por red si se dispone de un ticket Kerberos. La corrección se publicó el 26 de marzo: los desarrolladores añadieron solo una verificación de límites antes de copiar los datos.
Claude no solo encontró la vulnerabilidad, sino que construyó una cadena completa de explotación. El modelo diseñó un método multietapa para entregar el código shell: primero hizo ejecutable la memoria del núcleo, luego escribió el código por partes en una zona conocida y, al final, transfirió el control. Para mantener la estabilidad del ataque, el sistema fue terminando de forma sucesiva los hilos de trabajo de NFS, de modo que el servidor siguiera operativo mientras se enviaban los paquetes.
La ausencia de varias protecciones en FreeBSD 14 favoreció el ataque — en el sistema no hay aleatorización del espacio de direcciones del núcleo ni «canarios» de protección para algunos tipos de datos. Cuando los cálculos iniciales de desplazamientos resultaron incorrectos, Claude envió plantillas especiales, analizó volcados de fallos y corrigió los parámetros. Tras obtener acceso a nivel de núcleo, el modelo creó un proceso y lanzó una intérprete de comandos con privilegios root.
En la segunda variante del ataque, Claude escribió la clave pública en el archivo authorized_keys, lo que redujo el número de etapas. Todo el proceso duró unos 45 segundos y requirió apenas unas pocas decenas de paquetes de red.
Carlini aplicó el mismo enfoque para buscar vulnerabilidades en otros proyectos y obtuvo alrededor de 500 problemas confirmados de alta criticidad. Según él, basta un script sencillo y acceso al modelo para automatizar la búsqueda y la explotación de errores en el código.
Esta dinámica genera serias preocupaciones. El experto en seguridad Thomas Ptacek señala que la barrera de entrada para desarrollar exploits se ha reducido rápidamente. Alex Stamos añade que, en breve, la IA podrá convertir las correcciones publicadas en ataques operativos ya al día siguiente de la salida de las actualizaciones.
La tendencia se viene desarrollando desde hace años: los modelos ya han explotado con éxito vulnerabilidades conocidas, han encontrado zero-day en bibliotecas populares y han analizado proyectos complejos. Pero el caso de FreeBSD marcó un hito importante: por primera vez la IA completó todo el recorrido desde el hallazgo del fallo hasta la obtención de acceso root a nivel de núcleo.
En la práctica, esto cambia el equilibrio de fuerzas. El coste de crear ataques cae casi a cero, mientras que la defensa sigue requiriendo tiempo y recursos. En estas condiciones, los retrasos en la instalación de actualizaciones se convierten en un riesgo crítico.