O aplicativo Claude da Anthropic alcançou um crescimento surpreendente na App Store, subindo da 42ª posição para o 1º lugar em poucos dias. Curiosamente, essa escalada não ocorreu devido a novos recursos ou atualizações, mas por um conflito político envolvendo ética em inteligência artificial e pressões governamentais. A ironia é clara: quanto mais o governo tentava restringir o Claude, mais os usuários buscavam adotá-lo.
O conflito com o departamento de guerra
O embate começou quando Pete Hegseth, ligado ao Departamento de Defesa dos EUA, afirmou que a Anthropic representava risco à Segurança Nacional por se recusar a colaborar com projetos militares críticos. Pouco depois, Donald Trump determinou que a empresa fosse excluída da cadeia de suprimentos militar, impedindo o uso do Claude em operações bélicas federais.
O episódio levantou debates sobre se a ação era realmente uma questão de segurança ou um choque de valores éticos entre o governo e uma empresa de tecnologia inovadora.

A resposta da Anthropic: ética acima de contratos
A Anthropic respondeu reafirmando seu compromisso com princípios éticos, destacando que não abriria mão da segurança e privacidade de usuários. O Claude da Anthropic tornou-se um símbolo dessa postura, apoiado em dois pilares:
- Recusa em permitir armas autônomas “não confiáveis”: A empresa considera os modelos de IA atuais inseguros para uso militar, evitando consequências imprevisíveis.
- Proteção contra vigilância doméstica: A Anthropic se posiciona contra o uso do Claude para monitorar cidadãos, garantindo a privacidade como prioridade.
IA constitucional e a segurança dos modelos
A empresa explica que os modelos atuais não atendem a critérios de segurança para aplicações bélicas. O conceito de “IA constitucional” visa garantir previsibilidade e confiabilidade nos sistemas de inteligência artificial, evitando decisões automatizadas que possam violar direitos humanos ou causar danos não intencionais. Para a Anthropic, ética e responsabilidade tecnológica devem preceder contratos governamentais.
O efeito Streisand na tecnologia
O que poderia ser um golpe à reputação da empresa acabou se tornando uma campanha de marketing gratuita. A tentativa de punição gerou visibilidade, com usuários interpretando a postura ética da Anthropic como uma defesa de privacidade digital e responsabilidade na tecnologia. O resultado foi um efeito Streisand: quanto mais tentativas de limitar o Claude, mais downloads ele registrava, consolidando sua liderança na App Store.
Conclusão e o futuro da IA soberana
O caso do Claude da Anthropic mostra um novo paradigma no mercado de inteligência artificial: empresas que priorizam ética e soberania tecnológica podem se destacar globalmente, mesmo diante de pressões políticas. A discussão transcende rankings ou downloads, questionando o papel das corporações de tecnologia na sociedade e na Segurança Nacional. Até que ponto a ética deve prevalecer sobre exigências governamentais? E os usuários estão dispostos a apoiar empresas que tomam essas decisões?
