Anthropic ha hecho público un informe en el que acusa a tres laboratorios con sede en China —DeepSeek, Moonshot AI y MiniMax— de ejecutar lo que describe como campañas industriales para extraer capacidades de su modelo Claude y emplearlas en modelos propios. El anuncio, difundido a última hora del lunes, plantea dudas sobre la seguridad de los modelos de IA y sobre la eficacia de los controles internacionales sobre tecnologías avanzadas.
Según la empresa con sede en San Francisco, las operaciones implicaron millones de consultas automatizadas y el uso de cuentas y servicios que habrían ocultado la verdadera procedencia de las solicitudes, un patrón que, afirma, va más allá del uso legítimo de la API.
Qué reprocha Anthropic
En su reporte técnico, Anthropic detalla lo que considera una campaña organizada para realizar una forma de destilación del modelo: generar respuestas de Claude a gran escala y usar esos datos para entrenar otros sistemas. La compañía afirma que el método empleado no fue el habitual en investigaciones académicas o comerciales, sino que incluyó técnicas destinadas a evadir sus límites de uso.
- Alcance: más de 16 millones de interacciones con Claude, originadas desde cerca de 24.000 cuentas que Anthropic clasifica como fraudulentas.
- Actores señalados: DeepSeek, Moonshot AI y MiniMax.
- Métodos: creación masiva de cuentas falsas, uso de proxys y servicios de reventa de acceso —descritos en el informe como arquitecturas tipo “hydra cluster”— y generación de patrones de prompts diseñados para extraer capacidades específicas.
- Objetivos técnicos: razonamiento, programación, orquestación de herramientas y generación de alternativas seguras a consultas sensibles.
Detalles por empresa
Anthropic atribuye con alto grado de confianza cada uno de los ataques, basándose en correlaciones de direcciones IP, metadatos y otros indicadores de infraestructura, y en algunos casos con verificación de terceros del sector.
La compañía describe que DeepSeek habría ejecutado una operación más focalizada —superior a 150.000 intercambios— orientada a capacidades de razonamiento y a obtener variantes «seguras» de respuestas en temas políticamente delicados.
Moonshot AI, según el informe, generó más de 3,4 millones de interacciones empleando cientos de cuentas falsas para extraer funciones como razonamiento autónomo, uso de herramientas y análisis de datos.
MiniMax sería el más activo en volumen, con más de 13 millones de intercambios centrados en programación y orquestación, y con un comportamiento que Anthropic describe como inmediato: casi la mitad del tráfico registrado por la compañía habría sido redirigido hacia un nuevo modelo en apenas 24 horas después de su lanzamiento.
Por qué importa ahora
El reclamo de Anthropic llega en un momento en que la discusión sobre los controles de exportación y la soberanía tecnológica está muy viva. La empresa sostiene que estas prácticas pueden socavar las restricciones sobre semiconductores y otras tecnologías al permitir que equipos externos acorten plazos y costes para alcanzar capacidades avanzadas sin pasar por largos ciclos de investigación.
Además, la compañía advierte que modelos destilados sin las salvaguardas adecuadas presentan riesgos reales: desde la posible ayuda a actores con fines maliciosos hasta la falta de límites para usos peligrosos en biotecnología o ciberataques. En su evaluación, esa ausencia de medidas de seguridad convierte la extracción masiva de capacidades en una cuestión que excede el terreno comercial y entra en la esfera de la seguridad nacional.
Medidas adoptadas y respuesta requerida
Anthropic afirma haber reforzado sus defensas internas: ha mejorado clasificadores y herramientas de huella de comportamiento para detectar patrones compatibles con destilación, ha endurecido la verificación de cuentas y ha empezado a compartir indicadores técnicos con otros proveedores de nube y autoridades.
No obstante, la empresa subraya que estas acciones individuales no bastan. Según su análisis, la escala y sofisticación de las campañas requieren una cooperación más amplia entre la industria, los operadores de infraestructura y los reguladores para detectar y frenar este tipo de extracciones a gran escala.
Los datos que Anthropic ha difundido aspiran a ser evidencia pública para que distintos agentes implicados —investigadores, proveedores de servicios en la nube y responsables políticos— puedan evaluar el alcance del problema y coordinar una respuesta.
Qué dejan pendiente los reclamos
La denuncia plantea preguntas concretas que quedarán bajo escrutinio: ¿hasta qué punto las empresas señaladas usarán esos datos para mejorar modelos comerciales? ¿Qué pruebas adicionales pueden aportar las partes implicadas? Y, crucialmente, ¿qué pasos regulatorios o técnicos son necesarios para evitar que prácticas similares se repitan?
Mientras los actores implicados y las autoridades analizan el informe, la acusación de Anthropic no solo abre un debate sobre propiedad intelectual y cumplimiento de términos de servicio, sino que también reaviva el debate sobre seguridad y gobernanza en torno a la rápida difusión de capacidades de inteligencia artificial.

Hola, soy María, parte del equipo de MuyMac. Me dedico a analizar las tendencias que marcan nuestro día a día, desde innovaciones tecnológicas hasta nuevas modas, para mantenerte siempre actualizado.