Por fin, siete instituciones internacionales lograron ponerse de acuerdo.

Los desarrolladores de estándares de seguridad de IA se enfrentan cada vez más a un problema que dificulta tanto como las propias amenazas: hay muchas normas, pero falta coherencia entre ellas. Debido a términos y enfoques distintos, a las empresas les resulta más difícil saber en qué recomendaciones confiar, y los defensores deben dedicar tiempo a descifrar documentos en lugar de trabajar de forma práctica.
OWASP, SANS Institute, NIST, Cloud Security Alliance, Center for Internet Security, Coalition for Secure AI y Berryville Institute of Machine Learning se unieron en la iniciativa MOSAIC, o Multi-Organization Secure AI Coordination. El grupo se presentó el 21 de abril de 2026 en el foro AI Security Policy Forum en Arlington, que se celebró en paralelo con el SANS AI Cybersecurity Summit. El lanzamiento lo informó 28 de abril.
MOSAIC debería reducir la fragmentación en las recomendaciones para la protección de sistemas de inteligencia artificial. Según el informe SANS 2026 Workforce Research Report, el 60% de las organizaciones considera que sus equipos carecen de las habilidades para contrarrestar las amenazas actuales, y el 27% vincula los incidentes a esas carencias. En un contexto de escasez de personal, las diferentes definiciones de «riesgo de IA» en documentos de organismos de referencia solo complican el trabajo de los equipos de seguridad.
En SANS Institute consideran que las recomendaciones contradictorias han frenado durante dos años a los especialistas que protegen hospitales, redes energéticas y organizaciones financieras. Según el director de IA e investigación de SANS, Roba T. Li, los actores del mercado suelen recibir respuestas distintas a la pregunta de qué norma elegir, y ese enfoque no es adecuado para la protección práctica.
Uno de los impulsores de MOSAIC, fundador de OWASP AI Exchange y coeditor de la norma de seguridad para el EU AI Act, Rob van der Veer, explicó que el grupo no planea crear otro conjunto de requisitos. El objetivo de MOSAIC es conectar los documentos ya existentes para que los especialistas puedan aplicar las recomendaciones sin confusión innecesaria.
Los participantes quieren establecer un modelo de coordinación ligero sin burocracia onerosa. En los planes inmediatos está una plataforma común para el intercambio de materiales, la armonización de términos básicos como seguridad, protección y riesgo, así como principios comunes de funcionamiento y crecimiento de la comunidad. Se eligió GitHub como plataforma de coordinación, siguiendo los principios de apertura, equidad y buena fe OWASP.
MOSAIC se presenta como una iniciativa abierta para proyectos maduros que se ocupan seriamente de la seguridad de la IA. En el lanzamiento OWASP AI Exchange también presentó una taxonomía común basada en OpenCRE. Vincula términos, medidas de protección y conceptos de diferentes estándares. Los participantes prometen revelar más detalles sobre el repositorio MOSAIC y el desarrollo de la taxonomía más adelante.