Las cero detecciones en VirusTotal resaltan la magnitud de la amenaza.
Los investigadores de Palo Alto Networks han descubierto que los modelos de lenguaje grande (LLM) pueden ser fácilmente utilizados para crear nuevas variaciones de código JavaScript malicioso, capaces de eludir los sistemas de detección.
Según informan los especialistas, aunque los LLM no son capaces de desarrollar malware desde cero, pueden emplearse para reescribir y camuflar código existente, lo que dificulta significativamente su detección.
Los delincuentes utilizan LLM para realizar transformaciones que hacen que el código malicioso parezca más natural, dificultando su clasificación como peligroso. Estas modificaciones pueden deteriorar el rendimiento de los sistemas de análisis de malware, haciéndolos considerar que el código malicioso es inofensivo.
A pesar de las medidas de seguridad implementadas por los desarrolladores de LLM, los atacantes continúan utilizando herramientas alternativas, como WormGPT, para crear correos electrónicos de phishing y nuevo malware. Así, los expertos de Unit 42 demostraron cómo los LLM pueden reescribir muestras de código malicioso paso a paso, logrando evadir modelos de detección como Innocent Until Proven Guilty (IUPG) y PhishingJS. Como resultado, se generaron alrededor de 10,000 variantes de JavaScript que conservaban su funcionalidad pero no eran identificadas como maliciosas.
Para modificar el código se emplearon métodos como el renombramiento de variables, la división de cadenas, la adición de código innecesario, la eliminación de espacios y la reimplementación completa. Un algoritmo con estrategia codiciosa cambió la clasificación de la propia muestra del modelo de "malicioso" a "seguro" en el 88% de los casos.
Estos scripts modificados también lograron eludir los analizadores de malware en la plataforma VirusTotal, lo que confirma su alto grado de camuflaje. Una característica importante es que las modificaciones realizadas con LLM parecen más naturales en comparación con la ofuscación mediante bibliotecas como obfuscator.io, que dejan rastros fácilmente reconocibles.
Aunque OpenAI en octubre de 2024 bloqueó más de 20 operaciones que utilizaban su plataforma para exploración, investigación de vulnerabilidades y otros fines ilícitos, los atacantes aún tienen formas de aprovechar los modelos de redes neuronales para causar daño.
El uso de la IA generativa podría conducir a un aumento drástico en la cantidad de malware, pero el mismo enfoque puede aplicarse para mejorar el entrenamiento de modelos de aprendizaje automático, con el fin de aumentar su resistencia frente a amenazas.
De este modo, la expansión de las capacidades de la IA trae tanto amenazas como soluciones: las tecnologías utilizadas para camuflar código malicioso pueden convertirse en herramientas para reforzar la ciberseguridad si se aplican para crear sistemas de detección más robustos.