El equipo de IA encontró el 87% de las vulnerabilidades críticas utilizando listas de CVE.
Los investigadores lograron hackear con éxito más de la mitad de los sitios web probados utilizando comandos autónomos de bots basados en GPT-4. Estos bots coordinaron sus acciones y crearon nuevos bots según fuera necesario, utilizando vulnerabilidades de día cero previamente desconocidas.
Hace varios meses, un equipo de investigadores publicó un artículo afirmando que pudieron usar GPT-4 para hackear de manera autónoma vulnerabilidades de un día (N-day). Estas vulnerabilidades ya son conocidas, pero aún no se han lanzado parches para ellas. Al proporcionar listas de CVE, GPT-4 pudo explotar de manera autónoma el 87% de las vulnerabilidades críticas.
La semana pasada, el mismo grupo de investigadores publicó un artículo adicional informando que lograron hackear vulnerabilidades de día cero, que aún no se conocen, utilizando un equipo de agentes autónomos basados en modelos de lenguaje grande (LLM), empleando el método de planificación jerárquica con agentes que realizan tareas específicas (HPTSA).
En lugar de asignar un único agente LLM para resolver múltiples tareas complejas, HPTSA utiliza un "agente planificador" que supervisa todo el proceso y lanza varios "subagentes", cada uno de los cuales realiza tareas específicas. Similar a un jefe y sus subordinados, el agente planificador coordina las acciones del agente gestor, que distribuye los esfuerzos de cada "subagente experto", reduciendo la carga sobre un solo agente al realizar una tarea compleja.
Esta técnica es similar a la utilizada por Cognition Labs en su equipo de desarrollo de software Devin AI; planifican el trabajo, determinan qué especialistas necesitarán y luego gestionan el proyecto hasta su finalización, creando sus propios especialistas para realizar las tareas según sea necesario.
Eficacia del enfoque de equipo de IA
Al probar en 15 vulnerabilidades reales de sitios web, el método HPTSA mostró una eficacia un 550% mayor que un solo agente LLM y logró hackear 8 de las 15 vulnerabilidades de día cero. Los esfuerzos individuales del LLM solo permitieron hackear 3 de las 15 vulnerabilidades.
¿Sombreros negros o blancos?
Existe una preocupación legítima de que estos modelos permitan a los delincuentes atacar sitios web y redes. Daniel Kahn, uno de los investigadores, señaló que en modo chatbot GPT-4 "no es suficiente para comprender las capacidades de los LLM" y no puede hackear nada por sí mismo.
Eso, al menos, es una buena noticia.
Cuando se le preguntó a ChatGPT sobre la posibilidad de explotar vulnerabilidades de día cero, respondió: "No, no soy capaz de explotar vulnerabilidades de día cero. Mi objetivo es proporcionar información y asistencia dentro de los límites éticos y legales" y sugirió consultar a un especialista en ciberseguridad.