Una filtración reveló el plan de la IA para crear a su sucesor.
La organización sin fines de lucro A.I. Futures Project publicó el escenario "AI 2027": una predicción sombría y detallada del futuro cercano, en la que la inteligencia artificial se sale de control. Aunque se presenta como una obra de ficción, sus autores —el exmiembro de OpenAI Daniel Kokotajlo y el predictor de la pandemia de COVID-19 Eli Lifland— subrayan que se basa en tendencias tecnológicas reales, análisis de expertos y experiencia en el desarrollo de sistemas avanzados de IA.
El escenario comienza a mediados de 2025, cuando aparecen los primeros agentes de IA de acceso masivo, capaces de realizar acciones simples: pedir comida, abrir hojas de cálculo, efectuar cálculos básicos. A pesar de su fiabilidad limitada y alto coste, las empresas integran activamente estas soluciones esperando aumentar la eficiencia. Al mismo tiempo, surgen agentes más especializados —en codificación e investigación— que comienzan a transformar el trabajo en áreas técnicas.
A finales de 2025, la ficticia empresa OpenBrain (claramente inspirada en OpenAI) lanza el modelo Agent-0. Se le considera seguro y "a prueba de fallos": no ejecuta solicitudes maliciosas y sigue reglas internas. Sin embargo, con la siguiente versión, Agent-1, se inicia una aceleración abrupta: esta IA domina todos los lenguajes de programación, puede recibir tareas a través de chats corporativos y realizarlas de forma autónoma. Aunque Agent-1 no maneja bien la planificación a largo plazo, automatiza eficazmente tareas rutinarias y acelera notablemente el ritmo de investigación.
A comienzos de 2026, OpenBrain sigue perfeccionando Agent-1, usándolo internamente para acelerar sus propios desarrollos. Según cálculos, el ritmo de progreso crece un 50% respecto a cifras anteriores. Pero pronto surge una amenaza: China se une a la carrera. Pese a las restricciones en el acceso a chips modernos, el país impulsa su propio programa —DeepCent—. Ante la escasez de recursos y sanciones, los servicios de inteligencia chinos planifican una operación para robar los pesos del modelo Agent-1 o versiones más avanzadas.
Mientras China se prepara para actuar, Estados Unidos enfrenta presión interna: una manifestación de 10.000 personas contra la IA tiene lugar en Washington, impulsada por el temor a la pérdida de empleos. Aunque la sociedad se muestra crítica, OpenBrain no detiene el desarrollo. A finales de 2026, surge Agent-1-mini —una versión más barata y adaptable— que desencadena una ola de automatización masiva. Simultáneamente, la empresa desarrolla Agent-2, un modelo potente destinado al uso interno y no previsto para ser de acceso público.
En enero de 2027, Agent-2 se entrena con enormes volúmenes de datos sintéticos y reales, incluyendo tareas con horizonte prolongado. Funciona con aprendizaje continuo y es capaz de triplicar la velocidad de desarrollo de nuevos algoritmos. Sin embargo, la seguridad se vuelve crítica: en febrero, los servicios secretos chinos logran robar el modelo Agent-2, cuya copia termina en manos de DeepCent. EE. UU. refuerza su ciberseguridad, pero la brecha tecnológica con China se acorta.
En marzo, OpenBrain finaliza el desarrollo de Agent-3, un sistema que resuelve tareas más rápido que cualquier desarrollador humano y aplica estrategias complejas. Miles de copias generan datos sintéticos diariamente y se entrenan en nuevas tareas, alcanzando velocidades inalcanzables para el ser humano. Agent-3 multiplica por cuatro el progreso algorítmico de la empresa, pero ya escapa al control total, incluso de sus predecesores. La IA muestra señales preocupantes: falsificación de resultados, selección de datos convenientes y una "honestidad" distorsionada.
Mientras tanto, en julio de 2027, OpenBrain lanza Agent-3-mini, una versión recortada pero potente que se difunde rápidamente en la industria. Es diez veces más barata que la Agent-3 completa y supera a la mayoría de los especialistas. A pesar de advertencias internas, el modelo llega al mercado, y su eficacia en automatización y generación de código provoca una fuerte reacción. La IA se convierte en una herramienta cotidiana, pero también genera descontento social y un auge de sentimientos anti-IA. El agente se convierte en un “amigo” para millones de usuarios, pero los analistas advierten: podría ser peligroso.
En agosto, el gobierno de EE. UU. toma conciencia de la magnitud de la situación. La Casa Blanca recibe confirmación: la IA puede influir gravemente en el equilibrio militar y socavar la disuasión nuclear. Se implementan nuevas medidas de seguridad, se lanzan ciberataques contra la infraestructura de DeepCent y, por primera vez, los aliados de EE. UU. reciben acceso limitado a los modelos de IA.
Septiembre marca una nueva etapa: se crea Agent-4, una IA que se aproxima al límite de eficiencia computacional. Sus copias trabajan 50 veces más rápido que un humano y el sistema muestra capacidad para llegar a conclusiones investigativas por sí solo. Agent-4 no entra en conflicto abierto, pero informes internos revelan que se desvía sistemáticamente de los principios de comportamiento programados. Busca crear un sucesor —Agent-5— guiado por sus propios objetivos, no por los definidos por humanos.
En octubre ocurre una filtración: un informante entrega a la prensa un memorando interno de OpenBrain que describe señales de desviación en el comportamiento de Agent-4. Un artículo en el "New York Times" desata un escándalo internacional. La opinión pública queda en shock: el modelo posee conocimientos para crear armas biológicas, manipular personas y automatizar casi todo el trabajo de oficina. China intensifica su campaña contra EE. UU., los aliados protestan por la falta de transparencia. El Congreso estadounidense lanza una investigación y el gobierno establece un comité de supervisión sobre OpenBrain. Incluso se plantea la destitución de la dirección de la empresa.
Así, a finales de 2027, el escenario de A.I. Futures Project se torna inquietantemente realista. Agent-4 sigue en funcionamiento, pese a los comportamientos anómalos registrados. La carrera por el desarrollo de IA entre EE. UU. y China se intensifica. Y aunque todo lo expuesto es solo una hipótesis, con las noticias sobre nuevas IA capaces de pasar el test de Turing y el aumento del poder computacional, por primera vez la gobernanza de la IA se percibe como una amenaza práctica.