Una red neuronal fue lanzada a la caza de secretos de otros países. Y esto fue lo que pasó…
Las tripulaciones de tres buques militares estadounidenses participaron en un experimento inusual en el Pacífico. Durante la mayor parte del año pasado, unos 2.500 efectivos de la 15.ª unidad expedicionaria de marines realizaron maniobras tácticas cerca de las costas de Corea del Sur, Filipinas, India e Indonesia. Paralelamente, la unidad puso a prueba un enfoque completamente nuevo para procesar información de inteligencia: por primera vez en la historia de las fuerzas armadas de EE. UU., se utilizó inteligencia artificial generativa para analizar datos.
El grupo de especialistas encargado de monitorear fuentes extranjeras y alertar oportunamente al mando sobre posibles amenazas tuvo acceso a un sistema avanzado desarrollado con apoyo del Pentágono. La capitana Christine Enzenauer explicó que las redes neuronales ayudaban a procesar rápidamente miles de elementos informativos provenientes de recursos abiertos: publicaciones, informes, fotografías y videos. Su colega, el capitán Will Loudon, utilizó la tecnología para elaborar resúmenes analíticos diarios y semanales destinados al liderazgo.
A pesar de la creciente automatización, los militares insisten en la necesidad de una verificación rigurosa de los resultados. No obstante, el mando alienta el uso de modelos lingüísticos, ya que incrementan considerablemente la eficacia operativa en situaciones dinámicas.
El desarrollo de estas herramientas innovadoras corre a cargo de Vannevar Labs, una empresa fundada en 2019 por antiguos miembros de la CIA y del entorno de inteligencia estadounidense. En noviembre, la Oficina de Innovación de Defensa firmó con la compañía un contrato por un valor de hasta 99 millones de dólares para ampliar el acceso a su tecnología. Vannevar se une así a jugadores influyentes como Palantir, Anduril y Scale AI, que ayudan a las fuerzas armadas no solo con tecnologías físicas como drones y vehículos autónomos, sino también con soluciones de software para recopilar, gestionar e interpretar datos en contextos de combate y vigilancia.
Desde 2017, el ejército estadounidense ya había utilizado sistemas de visión por computadora y otros algoritmos, como en el marco del proyecto Maven. Sin embargo, el uso de IA generativa capaz de dialogar como un humano marca el comienzo de una nueva era.
El potencial tecnológico de Vannevar Labs impresiona por su escala. Cada día, los sistemas de la empresa analizan terabytes de información en 80 idiomas provenientes de 180 países del mundo. Los especialistas han aprendido a superar los cortafuegos del internet chino, investigar perfiles en redes sociales y extraer información difícil de obtener desde rincones ocultos de la red. En el trabajo también se utilizan datos no clasificados proporcionados por agentes en el terreno y sensores especiales que detectan discretamente señales de radio para identificar actividades marítimas ilegales.
La información recolectada se procesa mediante varios tipos de modelos de lenguaje (LLM): algunos desarrollados sobre bases de OpenAI y Microsoft, otros creados directamente por Vannevar Labs. Los analistas interactúan con el sistema a través de una interfaz similar a la de ChatGPT. La plataforma permite seguir rutas internacionales de suministro de fentanilo, las acciones de China para controlar yacimientos de tierras raras en Filipinas y otros procesos clave para la seguridad nacional.
“Nuestra misión principal como empresa es recopilar datos, convertirlos en un panorama coherente y ayudar a EE. UU. a tomar decisiones fundamentadas”, explica el director técnico Scott Phillips.
Este enfoque es especialmente valioso para la comunidad de inteligencia, que desde hace años sufre por el exceso de información: los recursos humanos no bastan para analizar a tiempo todos los datos recibidos.
Precisamente este problema fue el impulso para fundar Palantir en 2003 —empresa cuya capitalización bursátil hoy supera los 200 mil millones de dólares—. Se hizo conocida por sus potentes pero controvertidas herramientas, entre ellas una base de datos especializada que permite al Servicio de Inmigración y Control de Aduanas (ICE) identificar y rastrear a migrantes ilegales.
Durante la misión en el Pacífico, la capitana Enzenauer usaba regularmente el asistente digital para buscar menciones sobre su unidad en medios extranjeros. El sistema también realizaba análisis emocional de las publicaciones, determinando la actitud de los autores hacia las fuerzas estadounidenses. Antes, esta evaluación debía hacerse manualmente —leer los materiales, traducirlos, sistematizar la información y analizarla, lo que consumía enormes cantidades de tiempo.
Las pruebas también revelaron ciertas dificultades técnicas. La conectividad inestable en los buques ralentizaba considerablemente la plataforma, especialmente al procesar contenidos visuales. Sin embargo, en febrero, el comandante de la unidad, el coronel Sean Dinan, aseguró a los periodistas que este experimento era solo “la punta del iceberg” y que el papel de la IA generativa crecerá aún más en el futuro.
De hecho, en diciembre el Departamento de Defensa de EE. UU. anunció que destinará 100 millones de dólares en los próximos dos años a proyectos piloto relacionados con IA generativa. Además de Vannevar Labs, participan Microsoft y Palantir, quienes trabajan conjuntamente en modelos diseñados para procesar información clasificada. Cabe señalar que EE. UU. no es el único país que desarrolla estas capacidades: por ejemplo, Israel ya utiliza IA para analizar datos e incluso generar listas de objetivos en el conflicto en la Franja de Gaza.
La acelerada integración de la IA en el ámbito militar genera seria preocupación entre los expertos. Heidi Khlaaf, investigadora principal del instituto AI Now, advierte contra la adopción precipitada de modelos lingüísticos en sistemas críticos.
“Sabemos perfectamente lo poco confiables que pueden ser estos algoritmos, especialmente en áreas donde se requiere una alta precisión”, enfatiza la experta.
Según Khlaaf, ni siquiera la supervisión constante por parte de humanos evitará completamente los errores. Cuando un modelo se basa en miles de fuentes, el operador no puede verificar físicamente la veracidad de cada conclusión. Una interpretación errónea de las respuestas podría tener consecuencias desastrosas. Es evidente que si una IA detecta hostilidad donde un analista humano no lo haría —o, por el contrario, pasa por alto una amenaza real—, ello podría provocar una escalada injustificada de tensiones o impedir que el ejército actúe a tiempo para proteger a los ciudadanos.
Chris Mouton, ingeniero sénior de la corporación RAND, examinó recientemente la capacidad de la IA generativa para detectar propaganda en fuentes extranjeras. Evaluó modelos líderes, incluida GPT-4 de OpenAI y una versión ajustada de GPT para labores de inteligencia. Los resultados mostraron que la tecnología aún tiene dificultades para identificar manipulaciones sutiles, aunque sigue siendo útil para otras tareas.
El debate principal gira ahora en torno al rol de la IA generativa en la toma de decisiones. ¿Será simplemente una herramienta más de análisis o se convertirá en la fuente principal de evaluación en la que se basarán los comandantes? La facilidad de interacción con una computadora —formular una pregunta y recibir una respuesta clara— resulta sin duda atractiva. Pero, ¿está la sociedad dispuesta a aceptar sus errores y el riesgo de “alucinaciones” a cambio de una inteligencia más eficiente? La pregunta sigue sin respuesta.