O pesadelo de qualquer empresa de software aconteceu com a Anthropic: o código-fonte do Claude foi exposto acidentalmente devido a um erro interno. O incidente envolveu cerca de 512 mil linhas de TypeScript, revelando funções inéditas da IA que eram conhecidas apenas internamente. Diferente de um ataque hacker, o vazamento ocorreu por uma falha de configuração durante uma atualização de rotina, destacando os desafios de segurança em IA frente à velocidade de desenvolvimento de novas tecnologias.
O erro humano por trás do vazamento
O problema começou com os source maps, arquivos usados por desenvolvedores para depuração. Eles conectam o código compilado ao original, permitindo rastrear erros e testar funções com mais facilidade. No entanto, se forem disponibilizados em repositórios públicos, podem revelar todo o código-fonte TypeScript. Foi exatamente isso que aconteceu na Anthropic: uma atualização inadvertida incluiu os arquivos de depuração em um local acessível publicamente, expondo funções internas do Claude.
Impacto técnico: o que o arquivo de depuração continha
O incidente, conhecido entre especialistas como Claude Code leak, envolveu 512 mil linhas de código, incluindo módulos de processamento de linguagem natural, gerenciamento de diálogos e funcionalidades experimentais não documentadas. Apesar do volume, os arquivos não continham dados de usuários nem os pesos do modelo, que representam o “cérebro” da IA e permanecem seguros nos servidores da empresa.

O que foi (e o que não foi) exposto
Embora o erro da Anthropic tenha revelado detalhes internos do código, ele não comprometeu a segurança dos dados dos usuários nem a integridade do modelo de IA. Em outras palavras, o Claude Code leak permitiu conhecer a estrutura e funções do software, mas não possibilitou replicar a inteligência artificial da empresa.
Interface de “Tamagotchi”
Entre as descobertas mais curiosas, o código revelou uma interface gamificada chamada de “Tamagotchi”. Esse recurso sugere que o Claude poderia monitorar de forma lúdica o humor e engajamento dos usuários, ajustando respostas com base em métricas comportamentais. Embora divertido, esse recurso não impacta a performance central do modelo, mas demonstra a atenção da Anthropic à experiência de interação.
A reação da Anthropic e as notificações de DMCA
Após a exposição do código, a Anthropic iniciou esforços imediatos para conter a disseminação dos arquivos. A empresa utilizou notificações de DMCA para remover cópias hospedadas em repositórios públicos e reforçou protocolos internos de verificação antes de novas atualizações. Em comunicados, a Anthropic destacou que o incidente foi resultado de um erro humano, e não de uma falha de segurança no modelo em si.
Conclusão e o futuro da segurança na Anthropic
Este episódio mostra como a velocidade de desenvolvimento de IA pode se chocar com a necessidade de rigor em segurança em IA. Mesmo empresas com grande experiência podem cometer erros simples, mas com impactos importantes na reputação e na confiança dos usuários.
Para desenvolvedores e entusiastas de tecnologia, o caso serve como alerta: mesmo que os dados centrais permaneçam protegidos, a exposição do código-fonte pode trazer riscos de engenharia reversa e exploração indevida.
