A partir de ahora, el acceso a la IA solo se otorgará presentando el pasaporte.

Parece que la carrera de la inteligencia artificial ha alcanzado un nuevo nivel: ahora las empresas ya no se apresuran a compartir sus desarrollos más potentes. OpenAI está preparando un producto con capacidades avanzadas en ciberseguridad, pero el acceso a él lo recibirá solo un círculo reducido de socios.
Según informes de una fuente familiarizada con la situación, la compañía está finalizando el trabajo sobre una herramienta que hace mucho más que los modelos habituales. No se trata solo de buscar vulnerabilidades, sino también de tareas más complejas relacionadas con el análisis y el posible compromiso de sistemas. Por eso el desarrollador decidió no lanzar el producto al acceso público.
Anthropic adoptó un enfoque similar. La compañía anunció recientemente que limitará el acceso al nuevo modelo Mythos Preview y lo ofrecerá solo a empresas tecnológicas seleccionadas y a empresas del sector de ciberseguridad. La razón es la misma: preocupaciones por su potencial para facilitar intrusiones.
OpenAI empezó a moverse en esta dirección en febrero, cuando lanzó el programa cerrado Trusted Access for Cyber tras la salida del modelo GPT-5.3-Codex. Los participantes del programa obtienen acceso a versiones más «potentes» de los modelos, que ayudan en tareas defensivas. Para apoyar a los participantes, la compañía destinó 10 millones de dólares en créditos para el uso de la API.
Las preocupaciones en torno a esas tecnologías se han acumulado durante todo el último año. Antiguos funcionarios y responsables de seguridad advirtieron que, si se usan de manera indebida, modelos como esos pueden interrumpir el suministro de agua, las redes energéticas o los sistemas financieros. Ahora, al parecer, dichas capacidades ya han aparecido.
Sin embargo, no será posible contener la difusión de estas tecnologías por mucho tiempo. Según especialistas, los modelos modernos ya saben analizar código, encontrar puntos débiles y examinar programas obsoletos en busca de vulnerabilidades. E incluso si las grandes empresas restringen el acceso, capacidades similares aparecerán pronto en otros sistemas.
La situación recuerda la vieja discusión en ciberseguridad sobre cómo revelar vulnerabilidades: de inmediato o de manera gradual. El lanzamiento limitado de los nuevos modelos parece un intento de aplicar el mismo enfoque a la inteligencia artificial. Al mismo tiempo, el nuevo producto de OpenAI es otra historia. No está vinculado al futuro modelo Spud, del que la compañía ya ha hablado, y por ahora no está claro qué capacidades tendrá ni cómo se distribuirá.
Es interesante que, incluso sin nuevos desarrollos, parte de esas funciones ya están disponibles. Los modelos abiertos existentes son capaces de encontrar algunas vulnerabilidades y métodos de explotación que antes se asociaban con Mythos. Esto significa que las tecnologías ya han salido de los laboratorios, y no hay vuelta atrás.