¿Progreso o catástrofe? ¿Confiarán a la IA el botón nuclear de EE.UU.?

¿Progreso o catástrofe? ¿Confiarán a la IA el botón nuclear de EE.UU.?

La tecnología podría cambiar radicalmente la defensa del país.

image

El general de la Fuerza Aérea de los EE. UU., Anthony J. Cotton, habló sobre el importante papel de la inteligencia artificial (IA) en la gestión del arsenal nuclear del país. Cotton explicó que se están desarrollando sistemas de apoyo a la toma de decisiones basados en IA para ayudar a los líderes de EE. UU. a responder más rápidamente a situaciones críticas. El general destacó que las tecnologías de IA ayudarán a enfrentar tareas complejas y fortalecerán la seguridad nacional.

La implementación de IA en los sistemas militares de EE. UU. avanza rápidamente, al igual que en sectores comerciales como el de Silicon Valley. Sin embargo, los detalles específicos sobre el uso de IA en el ejército siguen siendo confidenciales, lo que genera muchas preguntas. El general Cotton, quien dirige STRATCOM, confirmó que la modernización de los sistemas nucleares será una de las principales prioridades. En las próximas décadas, se destinarán $1,7 billones a la actualización de la infraestructura, donde la IA jugará un papel importante para automatizar la gestión del arsenal nuclear.

Según el general, la IA y los métodos modernos de procesamiento de datos aumentarán significativamente la eficiencia de los sistemas nucleares y el nivel de disuasión frente a amenazas potenciales. También subrayó que, a pesar de las nuevas tecnologías, la decisión final siempre recaerá en el ser humano. La IA actuará como un "multiplicador de fuerza" —acelerará el análisis de información, pero las decisiones críticas las tomarán las personas.

Los expertos del sector consideran que la IA está destinada al análisis de datos, no al lanzamiento directo de misiles. Según los especialistas, la IA se encargará, por ejemplo, de recopilar y analizar datos de satélites para identificar posibles amenazas. Sin embargo, también existen riesgos, ya que en la historia han habido casos en los que los sistemas automáticos se equivocaron, y solo la intervención humana evitó una catástrofe.

Por ejemplo, en 1956, el sistema confundió una bandada de aves con un avión enemigo, y en 1960, el amanecer fue interpretado como un ataque con misiles. Estos incidentes demuestran la importancia de que el ser humano comprenda cómo funcionan los sistemas y pueda distinguir oportunamente un error de una amenaza real.

La IA en los sistemas nucleares también tiene un lado oscuro. El modelo de aprendizaje de IA es a menudo una especie de "caja negra", lo que hace difícil predecir todos los posibles errores que pueden surgir en situaciones críticas. Los expertos señalan que para usar IA a este nivel se requiere una capacitación seria del personal, capaz de identificar errores y comprender cómo pueden afectar las conclusiones de la IA. La falta de habilidades para trabajar con IA podría tener consecuencias fatales si el sistema automático proporcionara datos incorrectos.

El general Cotton señaló que el Pentágono enfrenta una escasez de especialistas que puedan implementar y gestionar la IA en los sistemas nucleares correctamente. Atraer a estos empleados en un entorno de competencia con empresas comerciales, que ofrecen salarios más altos, es extremadamente difícil, aunque trabajar con tecnologías únicas sigue siendo un fuerte incentivo para estos especialistas.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable