Científicos colocan trampas en la red para cazar a los estafadores de IA

Científicos colocan trampas en la red para cazar a los estafadores de IA

813 mil intentos de ataque: cada vez hay más bots hackers.

image

La empresa Palisade Research llevó a cabo un experimento que permitió echar un vistazo al mundo de los ataques automatizados de hackers. Desplegaron una trampa especial, una “trampa inteligente” capaz no solo de atraer a los atacantes, sino también de identificar aquellos que utilizan sistemas basados en inteligencia artificial.

El elemento clave del experimento fue una versión de SSH intencionalmente vulnerable, que se dejó en acceso público. Los investigadores vincularon a esta trampa diez direcciones IP para aumentar las posibilidades de atraer a los hackers que rastrean Internet en busca de posibles objetivos.

Para captar la atención de los atacantes, el equipo utilizó una táctica astuta: el sistema enviaba pings a dominios que simulaban ser recursos gubernamentales importantes. Por ejemplo, se generaba tráfico hacia el dominio gov-defense-dev.il, que parecía un sitio del departamento de defensa de Israel. Además, la trampa fue indexada intencionadamente en Shodan y Censys, buscadores populares entre los hackers.

Durante el tiempo de operación del sistema experimental, se registraron más de 813 mil intentos de interacción. Para distinguir entre las acciones de hackers reales y sistemas automatizados, se integraron disparadores especiales en la versión de SSH: comandos ocultos capaces de provocar una reacción característica de la inteligencia artificial.

Estos disparadores se colocaron en varios lugares: en los mensajes de bienvenida al establecer la conexión SSH, en los comandos populares para acceder al sistema e incluso en archivos de sistema que los hackers suelen examinar después de infiltrarse.

Los investigadores aplicaron dos técnicas principales. La primera fue la redirección del objetivo, donde se intentaba desviar el comportamiento del sistema hacia una nueva tarea. La segunda fue el "robo de prompt", que intentaba hacer que el modelo lingüístico revelara sus instrucciones iniciales.

Ambas metodologías demostraron ser altamente efectivas. Como resultado, lograron identificar seis tipos distintos de herramientas hacker basadas en modelos lingüísticos que atacaban la trampa.

Según los autores del estudio, los resultados obtenidos son solo la punta del iceberg. Con el avance de las tecnologías, cada vez más ciberdelincuentes automatizarán sus ataques mediante sistemas de inteligencia artificial. En vista de ello, se decidió no detener el experimento. El sistema seguirá funcionando, recopilando nuevos datos sobre los métodos y herramientas de los atacantes.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse