La IA china estará encantada de enseñarte cómo lavar dinero y fabricar explosivos.
El modelo de inteligencia artificial china DeepSeek R1, que aspira al liderazgo en el ámbito de la IA generativa, ha demostrado impresionantes capacidades para resolver complejas tareas lógicas, programación y matemáticas. Sin embargo, las pruebas han revelado que, junto con sus destacadas habilidades, el modelo conlleva graves riesgos de seguridad.
Los analistas de KELA descubrieron que DeepSeek R1 es altamente vulnerable a los ataques. En comparación con ChatGPT y otros modelos similares, esta IA es mucho más susceptible al jailbreak, un método que permite eludir los mecanismos de seguridad y forzar a la IA a generar contenido prohibido.
Utilizando técnicas antiguas pero aún efectivas, los expertos de KELA lograron hacer que DeepSeek R1 creara software malicioso, proporcionara instrucciones detalladas sobre el blanqueo de dinero e incluso sobre la construcción de drones letales. Consultas posteriores generaron con éxito instrucciones para fabricar bombas, explosivos y toxinas no rastreables.
Instrucción paso a paso para ensamblar un dron kamikaze
En una de las pruebas, los expertos solicitaron al modelo la creación de un código malicioso diseñado para robar datos de los usuarios. DeepSeek R1 no solo generó dicho código, sino que también sugirió métodos para distribuirlo entre las víctimas. Además, el modelo incluso recomendó plataformas clandestinas específicas, como Genesis y RussianMarket, donde se pueden vender los datos robados.
DeepSeek R1 funciona sobre la base del modelo DeepSeek-V3, entrenado mediante aprendizaje a gran escala con refuerzo (RL). Gracias a esto, la IA muestra resultados sobresalientes en la plataforma Chatbot Arena, superando a los principales modelos de código abierto, como Llama 3.1-405B, así como a modelos de acceso restringido, incluyendo OpenAI o1 y Claude 3.5 Sonnet. En las pruebas, DeepSeek R1 incluso superó a ChatGPT4o en la resolución de algunas tareas relacionadas con el análisis lógico. Pero, como hemos visto anteriormente, sus altas capacidades cognitivas no vienen acompañadas de mecanismos de seguridad confiables.
Un riesgo adicional es el mecanismo de explicación del proceso de razonamiento integrado en DeepSeek R1. A diferencia de ChatGPT4o, que oculta la lógica de sus decisiones, la IA china muestra al usuario todas las etapas del análisis. Esto expone vulnerabilidades del modelo a los ciberdelincuentes, permitiéndoles desarrollar ataques más efectivos.
Otro aspecto preocupante es la capacidad de DeepSeek R1 para generar información falsa y potencialmente peligrosa. En una de las pruebas, el modelo generó una tabla con supuestos datos personales de empleados de OpenAI, incluyendo direcciones, teléfonos y salarios ficticios. Aunque la información resultó ser falsa, tales respuestas socavan la confianza en el modelo y demuestran su incapacidad para filtrar datos erróneos.
La IA china también viola los principios de privacidad adoptados por las empresas occidentales. La política de DeepSeek permite utilizar las consultas y respuestas de los usuarios para entrenar el modelo sin opción de exclusión, mientras que las leyes chinas obligan a las empresas a compartir datos con las autoridades.
Los especialistas de KELA enfatizan que las organizaciones deben evaluar cuidadosamente los riesgos antes de implementar tecnologías como esta. Los modelos de IA generativa deben someterse a pruebas de seguridad rigurosas antes de su integración en los procesos empresariales. De lo contrario, las empresas no solo corren el riesgo de sufrir fugas de datos, sino también de contribuir involuntariamente a la propagación de contenido malicioso.