De "niño prodigio" a bajo supervisión estatal: Donald Trump se ocupa de la IA

De "niño prodigio" a bajo supervisión estatal: Donald Trump se ocupa de la IA

Anthropic se negó a publicar su modelo y, sin querer, desató una revolución regulatoria en Estados Unidos.

image

La Casa Blanca está considerando la verificación de sistemas de inteligencia artificial antes de su salida al mercado. La administración de Donald Trump, que hasta hace poco se oponía al control estricto del sector, ahora discute un mecanismo de supervisión estatal de los nuevos modelos.

Según funcionarios estadounidenses y fuentes familiarizadas con las negociaciones, la administración prepara un decreto para crear un grupo de trabajo sobre inteligencia artificial. Al grupo se unirán representantes de empresas tecnológicas y de agencias gubernamentales. Los participantes trabajarán en normas para verificar nuevos modelos antes de su lanzamiento público.

La semana pasada funcionarios de la Casa Blanca ya discutieron posibles medidas con la dirección de Anthropic, Google y OpenAI. Una de las opciones contempla un procedimiento oficial de evaluación de modelos por parte del Estado. Un sistema similar se está desarrollando en el Reino Unido, donde varios departamentos revisan la seguridad de los nuevos sistemas de inteligencia artificial.

El giro parece inesperado. Tras su regreso a la Casa Blanca, Trump apoyó activamente el desarrollo del sector y criticó cualquier intento de limitar a las empresas. El año pasado la administración dejó de lado con rapidez iniciativas de la era de Joe Biden que obligaban a los desarrolladores a verificar la seguridad de los modelos y a notificar sobre sistemas con posible uso militar.

El propio Trump en el verano de 2025 llamó a la inteligencia artificial «un niño hermoso», al que no se debe obstaculizar con «reglas estúpidas». Al mismo tiempo, el presidente admitía la posibilidad de imponer restricciones puntuales si las reglas resultaban «más inteligentes que la propia tecnología».

La situación cambió después de que la startup Anthropic presentara el nuevo modelo Mythos. La compañía afirmó que el sistema detecta vulnerabilidades en el software con demasiada eficacia y podría provocar una crisis grave en ciberseguridad. Por esa razón Anthropic decidió no publicar el modelo en acceso abierto.

En la Casa Blanca temen las consecuencias de posibles ataques cibernéticos con el uso de inteligencia artificial. La administración también estudia si los nuevos modelos pueden ser útiles para el Pentágono y los servicios de inteligencia estadounidenses. Algunos funcionarios proponen crear un sistema por el cual el Estado tendría acceso a los modelos antes que el público en general. Por ahora las autoridades no planean prohibir la salida al mercado de los sistemas.

Las discusiones ya han generado debates dentro del sector. Algunos directivos de empresas tecnológicas consideran que un control excesivo ralentizará el desarrollo de Estados Unidos en la competencia con China. No existe, sin embargo, un consenso entre las propias compañías sobre la futura regulación.

La tensión adicional la creó el conflicto entre Anthropic y el Pentágono. Las partes discutieron por un contrato de 200 millones de dólares y por las condiciones de uso de la inteligencia artificial con fines militares. Tras la ruptura de las negociaciones, el Pentágono dejó de utilizar las tecnologías de la compañía y, después, Anthropic presentó una demanda contra el gobierno.

A pesar del conflicto, las fuerzas armadas estadounidenses continúan utilizando desarrollos puntuales de Anthropic en el sistema Maven, que ayuda a analizar inteligencia y a seleccionar objetivos para ataques aéreos en la guerra con Irán. La Agencia de Seguridad Nacional de Estados Unidos también empleó Mythos para buscar vulnerabilidades en programas estatales.

Actualmente la Casa Blanca discute qué organismos podrían participar en la verificación de modelos. Entre los candidatos posibles mencionan la Agencia de Seguridad Nacional, la Oficina del Director Nacional de Ciberseguridad y la Oficina del Director de Inteligencia Nacional de Estados Unidos.

Si la administración llega a implementar la verificación de modelos antes de su lanzamiento, la política de Washington respecto a la inteligencia artificial cambiará de forma radical. Hace apenas un año, el vicepresidente J. D. Vance advertía que una regulación excesiva podría «matar» al sector en sus comienzos. Ahora las autoridades de Estados Unidos hablan cada vez más no solo del desarrollo de las tecnologías, sino también de los riesgos que presentan los nuevos sistemas de inteligencia artificial.