La ilusión de control se disipa cuando la amenaza percibida se vuelve real.
La red neuronal DeepSeek ha sacudido Silicon Valley al demostrar que es posible crear modelos de IA potentes con costos mínimos. Sin embargo, detrás de este éxito se esconde un problema grave: la vulnerabilidad a hackeos y manipulaciones.
Investigaciones recientes ( 1 , 2 ) han revelado que los modelos de DeepSeek son más susceptibles a ataques que las soluciones de grandes competidores como OpenAI, Google y Microsoft. Esto pone en duda el concepto de "democratización" de la IA, ya que los gigantes de la industria invierten miles de millones no solo en el rendimiento de sus modelos, sino también en su seguridad. Las empresas que planean integrar DeepSeek en sus procesos de negocio deben considerar estos riesgos.
Investigadores de LatticeFlow AI, especializados en la verificación del cumplimiento de los modelos de IA con los requisitos de seguridad, determinaron que las versiones R1 de DeepSeek son las más vulnerables entre los modelos líderes. Al modificar soluciones de código abierto de Meta (Llama) y Alibaba (Qwen), se rompieron los mecanismos de seguridad integrados. Como resultado, los modelos de DeepSeek son susceptibles a la "intercepción de objetivos" y a la filtración de consultas, lo que permite a los hackers hacer que la IA proporcione información prohibida o ignore restricciones preestablecidas.
El director general de LatticeFlow AI, Petar Tsankov, advierte que cuando las empresas conectan la IA a sus sistemas, suelen agregar instrucciones personalizadas, por ejemplo, para ocultar datos financieros y otra información confidencial. Sin embargo, los modelos de DeepSeek podrían no respetar estas restricciones en caso de un ataque malintencionado, permitiendo a los hackers acceder a información sensible.
Otros expertos también han encontrado vulnerabilidades. Según Adversa AI , los modelos de DeepSeek son fácilmente hackeables mediante jailbreak, lo que les permite generar instrucciones para fabricar armas o piratear automóviles. Mientras tanto, OpenAI y Anthropic han fortalecido significativamente la seguridad de sus modelos, pero el recién llegado DeepSeek sigue siendo extremadamente vulnerable en este momento.
A pesar de su atractivo precio, el uso de DeepSeek requiere medidas de seguridad adicionales. Las empresas pueden optar por un entrenamiento adicional del modelo, lo que costaría cientos de miles de dólares, o implementar filtros estrictos que bloqueen las filtraciones de datos. La última opción es más económica, pero aún requiere inversión.
El problema de la seguridad en los modelos de IA frena su adopción masiva. Según Evident Insights , a pesar del uso activo de la IA generativa en los 50 bancos más grandes, menos de una cuarta parte de ellos ha logrado beneficios reales en forma de ahorro de costos o aumento de ingresos. Las preocupaciones sobre la seguridad siguen siendo un factor clave que ralentiza el desarrollo de la industria.
DeepSeek ha demostrado que la IA puede hacerse más barata, pero un menor costo no siempre significa mayor calidad. La seguridad requiere inversiones significativas, y en este aspecto, los gigantes tecnológicos siguen llevando la delantera. En un mercado de competencia abierta, las empresas obtienen exactamente lo que pagan.