Las páginas blancas engañan a los algoritmos inteligentes de Google.
Según el nuevo informe de la empresa Malwarebytes, los ciberdelincuentes están utilizando activamente las capacidades de la inteligencia artificial (IA) y los grandes modelos de lenguaje (LLM) para crear nuevos esquemas de engaño que logran eludir la mayoría de los sistemas de ciberseguridad.
Un ejemplo de esta actividad es una campaña de phishing dirigida a los usuarios de Securitas OneID. Los atacantes lanzan anuncios en Google, disfrazándolos como legítimos. Cuando el usuario hace clic en dicho anuncio, es redirigido a una "página blanca", un sitio especialmente creado que no contiene contenido malicioso visible. Estas páginas actúan como una maniobra de distracción destinada a evadir los sistemas automáticos de protección de Google y otras plataformas.
El núcleo del ataque radica en que los verdaderos objetivos del phishing permanecen ocultos hasta que el usuario realiza ciertas acciones o hasta que el sistema de seguridad finaliza la verificación. Las "páginas blancas", creadas con ayuda de la IA, contienen texto e imágenes que parecen plausibles, incluidas caras generadas de supuestos "empleados de la empresa". Esto las hace aún más convincentes y difíciles de detectar.
Anteriormente, los delincuentes utilizaban imágenes robadas de redes sociales o fotos de bancos de imágenes, pero ahora la generación automática de contenido permite adaptar rápidamente estos ataques y crear páginas únicas para cada campaña.
Otro caso está relacionado con el programa de acceso remoto Parsec, popular entre los jugadores. Los atacantes crearon una "página blanca" con referencias al universo de Star Wars, incluyendo pósters originales y diseño temático. Este contenido no solo engaña a los sistemas de protección, sino que también resulta atractivo para las posibles víctimas.
El uso de la IA permite a los delincuentes evadir fácilmente las verificaciones. Por ejemplo, durante la validación de anuncios, Google solo ve las inofensivas "páginas blancas" que no generan sospechas. Sin embargo, para los usuarios reales que conocen el contexto, estas páginas a menudo parecen poco serias y pueden ser fácilmente desenmascaradas.
En respuesta al creciente uso de la IA en esquemas delictivos, algunas empresas ya están desarrollando herramientas capaces de analizar y detectar contenido generado. Sin embargo, el problema sigue siendo crítico: la versatilidad y accesibilidad de la IA la convierten en una herramienta atractiva en manos de los atacantes.
La situación subraya la importancia de la intervención humana en los procesos de análisis de datos. Lo que para un algoritmo puede parecer normal, a menudo resulta inmediatamente sospechoso o incluso absurdo para una persona. Este equilibrio entre tecnologías y experiencia humana sigue siendo un elemento clave en la lucha contra las amenazas digitales.