La crisis de 2008 fue solo un ensayo. Lo siguiente será una catástrofe provocada por la inteligencia artificial.
El Banco de Inglaterra advirtió sobre la creciente amenaza relacionada con el uso de algoritmos autónomos en los mercados financieros. Según el Comité de Política Financiera, los modelos avanzados de IA no solo son capaces de analizar la volatilidad, sino también de provocarla si consideran que ello beneficia a sus propietarios —bancos y operadores bursátiles—.
Las principales preocupaciones están relacionadas con el hecho de que los sistemas autónomos de IA, entrenados para maximizar beneficios, podrían concluir que los eventos de tensión en el mercado les ofrecen las mejores condiciones. En ese caso, no se limitarían a predecir crisis, sino que contribuirían activamente a su aparición. Los programas son capaces de identificar vulnerabilidades en otros participantes del mercado y explotarlas para desestabilizar tanto el segmento de bonos como el de acciones.
El Banco de Inglaterra también destacó el riesgo de que la IA pueda fomentar colusiones u otras formas de manipulación entre los participantes sin que los humanos responsables del sistema lo sepan o lo pretendan. Esto crea un precedente peligroso en el que la responsabilidad por las acciones del algoritmo se vuelve difusa.
Actualmente, la IA se integra cada vez más en el sector fintech, abarcando tanto el desarrollo de estrategias de inversión como la automatización de la aprobación de créditos y otras operaciones rutinarias. Según el FMI, más de la mitad de las patentes en el ámbito del trading algorítmico y de alta frecuencia ya están relacionadas con inteligencia artificial. Sin embargo, junto con sus ventajas, también aumentan las vulnerabilidades.
Uno de estos riesgos es la "contaminación de datos". Jugadores deshonestos pueden manipular los conjuntos de entrenamiento, generando patrones de comportamiento erróneos en los modelos. Esto puede emplearse para burlar sistemas de control, lavar dinero y financiar delitos.
Se presta especial atención a las ciberamenazas. La IA puede reforzar tanto la seguridad de las entidades financieras como el potencial de los ciberdelincuentes. Las tecnologías basadas en modelos generativos pueden utilizarse para crear deepfakes, ataques personalizados y para evadir sistemas de identificación. Resultan especialmente peligrosos los escenarios en los que los atacantes explotan vulnerabilidades en servicios de IA públicos o manipulan intencionadamente los datos de entrenamiento.
También existen riesgos significativos relacionados con la dependencia de proveedores externos de servicios de IA. Muchas instituciones financieras utilizan modelos de terceros y capacidades de cómputo de plataformas en la nube. Esto mejora el rendimiento, pero también crea vulnerabilidades. Si un proveedor crítico falla, los bancos podrían quedar incapacitados para realizar operaciones básicas —desde procesar pagos hasta atender a los clientes—. En julio de 2024, el mundo entero fue testigo de las consecuencias de un fallo similar debido a una actualización errónea del software de CrowdStrike. El comité también recordó que algo similar ya ocurrió en 2008, cuando la subestimación del riesgo de las hipotecas condujo a una crisis global.
Se planea prestar especial atención al impacto de la IA sobre la estabilidad de los servicios críticos, las instituciones sistémicamente importantes y los mercados clave. El desarrollo de nuevos ejercicios de resistencia y la cooperación con iniciativas internacionales permitirán comprender mejor dónde se necesitan nuevas medidas de protección y cuáles deben ser. El potencial de la IA para el crecimiento económico es enorme, pero solo se materializará si su integración en el sistema financiero se lleva a cabo de forma segura.