Te explicamos cómo un fallo de Recursos Humanos puede abrir la puerta a tu red.

Los grupos de ciberdelincuencia incorporan cada vez más herramientas de inteligencia artificial en sus operaciones. Los analistas de Microsoft concluyeron que los modelos modernos ya forman parte de la infraestructura de los ataques: los servicios generativos aceleran la preparación de campañas de phishing, la creación de código malicioso y el análisis de datos robados, ayudando a los delincuentes a escalar campañas y reducir costes.
El reciente informe Microsoft Threat Intelligence describe el creciente papel de la inteligencia artificial en las distintas fases de los ataques. Los modelos se utilizan con más frecuencia para trabajar con texto, código y medios. Con su ayuda, los atacantes redactan correos de phishing, traducen mensajes a distintos idiomas, resumen documentos robados, crean o corrigen programas maliciosos y preparan scripts de infraestructura. Según Microsoft, la inteligencia artificial actúa más como un acelerador de procesos: las decisiones principales sobre objetivos y tácticas siguen siendo tomadas por los operadores.
Un ejemplo característico es la actividad de los grupos norcoreanos Jasper Sleet y Coral Sleet. Estas estructuras emplean IA para crear identidades digitales falsas que facilitan la infiltración en empresas haciéndose pasar por empleados de TI remotos. Los servicios generativos seleccionan nombres, formatos de correo electrónico, currículos y cartas de presentación, además de analizar ofertas de empleo y extraer requisitos para los candidatos. Esta preparación aumenta la verosimilitud de los perfiles y facilita mantener el acceso a los sistemas corporativos durante periodos prolongados.
La IA también se utiliza en la fase de preparación de la infraestructura. Con ayuda de modelos, los atacantes eligen herramientas para eludir sistemas de defensa, investigan vulnerabilidades y construyen servidores de comando y control. Microsoft también registra el uso de redes neuronales generativas para crear automáticamente nombres de dominio que imitan marcas populares. Estos dominios se emplean para phishing, para el control de malware y para el robo de credenciales.
La ingeniería social también ha cambiado de forma notable. Los sistemas generativos ayudan a redactar mensajes convincentes sin errores lingüísticos, a adaptar las comunicaciones a una empresa o puesto concreto e incluso a crear personalidades sintéticas. En algunas operaciones los atacantes usan modificación de voz o vídeos deepfake para ocultar acentos y hacerse pasar por candidatos de otros países. El grupo Jasper Sleet, por ejemplo, utilizó la aplicación Faceswap para insertar rostros de desarrolladores de Corea del Norte en documentos robados y en fotografías de currículos.
La IA participa asimismo en el desarrollo de software malicioso. Los modelos ayudan a generar fragmentos de código, encontrar errores y reescribir módulos a otros lenguajes de programación. Microsoft descubrió que Coral Sleet aplica activamente estas herramientas para acelerar la creación de nuevos componentes de malware. En algunas muestras de código los analistas hallaron signos característicos de generación automática: nombres de funciones redundantes, una modularidad excesiva e incluso comentarios que recuerdan el estilo conversacional de un desarrollador.
Tras la intrusión en la infraestructura de las empresas, la inteligencia artificial ayuda a los atacantes a analizar el entorno. Los modelos resumen registros y configuraciones, identifican datos valiosos, sugieren opciones para moverse lateralmente por la red y ayudan a elegir métodos para afianzarse en el sistema. La IA también facilita el análisis de la información robada y la redacción de mensajes para extorsión.
Microsoft señala los primeros indicios de una transición hacia sistemas más autónomos. Se trata de la llamada IA de tipo agente, capaz de planificar acciones de forma independiente, evaluar resultados y ajustar la estrategia. Todavía no se observa un uso masivo de estas soluciones debido a limitaciones de fiabilidad, pero el desarrollo posterior de estas herramientas podría complicar de manera significativa la detección de ataques.
Los analistas subrayan que la difusión de la inteligencia artificial también fortalece la defensa. La compañía ya ha identificado y bloqueado miles de cuentas relacionadas con empleados de TI falsos y continúa desarrollando sistemas de detección de abusos. Según Microsoft, la IA reduce la barrera de entrada para los atacantes, pero bien aplicada puede mejorar de manera notable la eficacia de las medidas de protección.