Anthropic acusa empresas chinesas de destilação ilícita do Claude

Anthropic revela ataque industrial ao Claude e alerta para os riscos da destilação ilícita de modelos IA.

Escrito por
Jardeson Márcio
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista...

A guerra das inteligências artificiais continua a se intensificar, e agora entra em foco a disputa por propriedade intelectual no mundo da IA generativa. A Anthropic, empresa responsável pelo modelo Claude, denunciou recentemente três empresas chinesas, DeepSeek, Moonshot e MiniMax, por extrair em escala industrial capacidades do Claude por meio de destilação de modelos IA de forma ilícita. Segundo a empresa, mais de 16 milhões de interações foram utilizadas para treinar sistemas concorrentes, sem qualquer autorização ou compensação. Este caso não só acende o alerta sobre a proteção de modelos de IA avançados, mas também levanta questões de segurança nacional, ética tecnológica e responsabilidade corporativa.

O que é a destilação de modelos e por que ela é polêmica

A destilação de modelos IA é uma técnica legítima em que um modelo maior e mais complexo serve como “professor” para treinar um modelo menor ou mais eficiente, permitindo que ele aprenda padrões e respostas sem precisar ser treinado do zero. Em contextos legais, essa prática pode acelerar pesquisas e otimizar recursos computacionais. No entanto, a polêmica surge quando a destilação é feita sem autorização, com extração massiva de dados de um modelo proprietário. Neste caso, DeepSeek, Moonshot e MiniMax teriam usado o Claude como base, replicando suas capacidades sem implementar filtros de segurança ou respeitar direitos de propriedade intelectual, caracterizando uso ilícito e predatório da tecnologia.

Claude

A anatomia do ataque: clusters hidra e contas fraudulentas

Segundo a Anthropic, o ataque envolveu uma infraestrutura sofisticada. Mais de 16 milhões de interações foram registradas em um curto período, utilizando técnicas avançadas de evasão para burlar limites de taxa e detecção automática. Os atacantes teriam criado clusters hidra, um conjunto de contas interconectadas que simulavam usuários legítimos, além de contas fraudulentas para multiplicar as consultas. Essa abordagem permitiu que o Claude fosse efetivamente “copiado” em escala industrial, oferecendo aos concorrentes acesso a respostas refinadas e padrões de linguagem que levaram anos de desenvolvimento para serem aprimorados.

Riscos à segurança nacional e a falta de salvaguardas

A destilação de modelos IA sem restrições não é apenas uma questão de concorrência desleal: ela representa um risco à segurança nacional. Modelos destilados podem ser utilizados para gerar conteúdos sensíveis, explorar vulnerabilidades cibernéticas ou até criar sistemas de IA com capacidades militares ou estratégicas. Além disso, a ausência de filtros de segurança nos modelos replicados significa que eles podem ser explorados para disseminar desinformação, ataques automatizados e técnicas de manipulação em larga escala. Para governos e empresas, isso evidencia a necessidade urgente de salvaguardas legais e técnicas para proteger modelos de IA críticos.

O contra-ataque da Anthropic e do Google

A Anthropic não ficou inerte diante das ameaças. A empresa iniciou investigações internas e ações legais, além de reforçar medidas de monitoramento para detectar usos não autorizados do Claude. O caso também ecoa experiências recentes do Google, que revelou ataques semelhantes contra seu modelo Gemini, evidenciando que a destilação ilícita de modelos IA é um problema global e crescente. Medidas adotadas incluem limites mais rigorosos de API, rastreamento de padrões de uso anômalos e ações jurídicas contra empresas infratoras, criando um precedente importante na proteção da propriedade intelectual de IA.

Conclusão: o futuro da proteção de propriedade intelectual em IA

O episódio envolvendo DeepSeek, Moonshot e MiniMax é um alerta sobre como a destilação de modelos IA pode ser usada de forma predatória, colocando em risco empresas, governos e a sociedade. À medida que a tecnologia avança, a proteção de modelos proprietários será um fator estratégico e ético, exigindo colaboração entre empresas, legisladores e comunidades de desenvolvedores. Para o público interessado em tecnologia, esta é uma oportunidade de refletir sobre ética na IA e sobre como regulamentações podem equilibrar inovação e segurança. O debate sobre a responsabilidade na replicação de modelos de IA deve crescer, e o futuro da indústria dependerá da capacidade de proteger propriedade intelectual sem frear o progresso tecnológico.

Compartilhe este artigo
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista em Android, Apple, Cibersegurança e diversos outros temas do universo tecnológico. Seu foco é trazer análises aprofundadas, notícias e guias práticos sobre segurança digital, mobilidade, sistemas operacionais e as últimas inovações que moldam o cenário da tecnologia.