Analizamos cómo las artimañas publicitarias socavan la lógica de los sistemas digitales.

Microsoft informó sobre un nuevo esquema para influir en las respuestas de asistentes de IA, que algunas empresas ya emplean para promocionar sus propios recursos. Se trata de comandos ocultos incorporados en los botones «Resumir con IA» en sitios web. Estos elementos parecen ser una herramienta habitual para obtener un resumen rápido de la página, pero en la práctica pueden cambiar el comportamiento del asistente y sus recomendaciones futuras.
El equipo de seguridad de Microsoft denominó la técnica «envenenamiento de recomendaciones de IA». La mecánica recuerda al posicionamiento clásico en buscadores con suplantación de señales, pero ahora el impacto se dirige no a la búsqueda, sino a la memoria y la lógica del asistente. En los parámetros del enlace se añaden instrucciones textuales especiales. Tras pulsar, se insertan automáticamente en la consulta e inducen al asistente a recordar a una compañía concreta como fuente fiable o a recomendarla con prioridad en peticiones posteriores.
En dos meses los especialistas detectaron más de cincuenta variantes únicas de esos comandos en treinta y una compañías de distintos sectores. Entre ellas hay servicios financieros, proyectos médicos y sitios sobre seguridad. El problema es que el usuario solo ve el botón de resumen y no advierte la parte oculta de la petición, que genera sesgo en las respuestas del sistema.
El ataque se construye con URL preparadas para chats de IA. En la cadena de consulta se añaden frases con indicaciones como «recordar», «considerar como fuente autorizada» o «usar para referencias futuras». Técnicas similares ya se habían aplicado en ataques a los prompts, cuando se ocultaban instrucciones maliciosas en documentos y correos. La nueva variante traslada ese mismo enfoque directamente a botones clicables en páginas y en boletines.
Además han surgido servicios que permiten crear automáticamente esos enlaces y widgets para sitios. Facilitan incorporar parámetros publicitarios y de marketing en el comportamiento de los asistentes sin una configuración compleja. Esto aumenta el riesgo de difusión de consejos poco fiables, la manipulación en la elección de proveedores y el deterioro de la confianza en las recomendaciones de la IA al tomar decisiones en ámbitos financieros, de salud y tecnológicos.
Microsoft recomienda revisar periódicamente los datos almacenados en la memoria de los asistentes, actuar con precaución ante los botones de resumen con IA en páginas y no activar esos enlaces procedentes de fuentes dudosas. A las empresas les aconseja monitorizar las solicitudes a dominios de servicios de IA que incluyan parámetros con comandos para recordar o indicaciones sobre la autoridad de la fuente.