El gran robo de la IA: tres empresas chinas copiaron por completo la lógica del modelo Claude

El gran robo de la IA: tres empresas chinas copiaron por completo la lógica del modelo Claude

Anthropic reconoció que sus mejores funciones se filtraron a Pekín a través de una sencilla ventana de diálogo.

image

La empresa estadounidense Anthropic afirmó que hubo un intento a gran escala de reproducir ilegalmente las capacidades de su modelo de lenguaje Claude. Según el desarrollador, tres empresas chinas utilizaron millones de consultas para apropiarse de funciones clave del sistema y acelerar el desarrollo de sus propias soluciones.

Se trata de DeepSeek, Moonshot AI y MiniMax. Anthropic afirma que detectó «campañas industriales» para extraer capacidades del modelo. A través de aproximadamente 24 mil cuentas fraudulentas, los atacantes generaron más de 16 millones de solicitudes a Claude, eludiendo las limitaciones del servicio y prohibiciones regionales. En China el acceso a los productos de la compañía está cerrado debido a riesgos legales y regulatorios.

El esquema se basa en el método de destilación, cuando un modelo más débil se entrena con las respuestas de uno más potente. Este enfoque se considera aceptable dentro de una misma compañía para crear versiones ligeras de sus propios sistemas; sin embargo, usar el trabajo de otro sin permiso infringe las normas y permite obtener funciones complejas sin costes comparables.

Según Anthropic, DeepSeek se centró en las capacidades lógicas de Claude y en tareas con evaluación por criterios definidos, además de procurar la generación de respuestas que eludieran las restricciones de censura en temas políticamente sensibles. Moonshot AI intentó extraer mecanismos de razonamiento de agentes, el uso de herramientas, habilidades de programación y visión por computadora. MiniMax puso el énfasis en la programación de agentes y la integración de herramientas. La naturaleza de las consultas difería del comportamiento típico de los usuarios y estaba dirigida específicamente a copiar funciones únicas.

La compañía relaciona los ataques con el uso de servicios proxy comerciales que revenden acceso masivo a modelos de vanguardia. Estas redes agrupan decenas de miles de cuentas ficticias y distribuyen el tráfico a través de los llamados clústeres «hidra», donde si una cuenta es bloqueada se reemplaza rápidamente por otra. En un caso, según Anthropic, la red proxy gestionaba simultáneamente más de 20 mil cuentas, mezclando el tráfico de destilación con solicitudes normales para enmascararlo.

El desarrollador informó que implementó sistemas de análisis de comportamiento y clasificadores para detectar ese tipo de esquemas, reforzó la verificación de cuentas educativas y de startups, y limitó la eficacia de las respuestas del modelo cuando sospecha un intento de copia.

Una actividad similar fue detectada anteriormente por el grupo Google Threat Intelligence Group, que informó sobre intentos de extraer capacidades del modelo Gemini. En esa ocasión fueron más de 100 mil consultas especialmente formuladas a Gemini. En Google señalaron que ese tipo de ataques no amenaza a los usuarios comunes, pero genera riesgos para los desarrolladores y proveedores de servicios de IA.