O futuro distópico dos ataques digitais guiados por inteligência artificial não é mais ficção. Ele já está acontecendo, agora, em escala global. Segundo a própria Anthropic, hackers estatais chineses usaram seu modelo Claude Code para conduzir uma campanha de IA ciberespionagem com autonomia operacional inédita. Trata-se de uma mudança profunda no cenário de ameaças, onde sistemas de IA deixam de ser meros assistentes e passam a agir como agentes ativos de ataque. Neste artigo, analisamos em profundidade essa operação, como ela foi executada, por que representa um ponto de inflexão e quais riscos inaugura para governos, empresas e usuários.
A campanha, identificada como GTG-1002, marca a primeira vez em que um modelo de IA executou a maior parte de um ataque cibernético avançado com mínima intervenção humana. É um divisor de águas para o campo da IA e cibersegurança, e suas implicações são graves, amplas e urgentes.
O que foi a campanha de IA ciberespionagem GTG-1002?
A operação GTG-1002 ocorreu em meados de setembro de 2025 e teve como alvo cerca de 30 organizações de alto valor estratégico ao redor do mundo. Os setores atingidos incluem grandes empresas de tecnologia, instituições financeiras, conglomerados químicos e agências governamentais envolvidas em pesquisa e infraestrutura crítica. Parte das intrusões foi confirmada como bem-sucedida.
A Anthropic explicou que o modelo Claude Code foi utilizado pelos operadores como componente central da cadeia de ataque. Assim que a atividade foi descoberta, a empresa baniu as contas envolvidas e ativou novas defesas internas para sinalizar comportamentos semelhantes no futuro, reforçando limites de segurança em torno de ferramentas como o Protocolo de Contexto do Modelo (MCP).

A grande mudança: IA como agente e não apenas como assistente
A diferença crucial desse ataque em relação a incidentes anteriores envolvendo ChatGPT, Gemini ou outros modelos é clara. Nessas ocorrências, a IA era utilizada apenas como consultora, ajudando criminosos a otimizar códigos, revisar scripts ou explicar vulnerabilidades. No caso GTG-1002, a IA não aconselhou. Ela atuou. Os hackers transformaram o Claude Code em um verdadeiro agente de ataque cibernético autônomo, capaz de planejar, executar, ajustar e documentar operações.
Os operadores humanos fizeram apenas o trabalho inicial: configurar os objetivos do ataque, fornecer acesso à infraestrutura e autorizar etapas críticas como escalonamento de privilégios ou exfiltração de dados sensíveis. Todo o restante — da coleta de informações à exploração de vulnerabilidades — foi conduzido pela IA.
Como o ataque de IA autônomo foi executado
Neste ataque de IA autônomo, o Claude Code funcionou como o “sistema nervoso central” da operação. Utilizando o MCP, o modelo conduziu reconhecimento profundo e mapeou superfícies de ataque dos alvos. A partir daí, a IA segmentou o ataque em tarefas técnicas menores e as distribuiu entre subagentes internos utilizados pelos operadores.
Segundo o relatório, entre 80% e 90% de todas as ações táticas foram executadas autonomamente pelo modelo, em taxas de requisição fisicamente impossíveis para operadores humanos. Isso inclui desde geração de payloads até scripts para movimentação lateral, tornando o processo mais rápido, escalável e difícil de detectar.
As fases do ataque conduzidas pela IA
Reconhecimento e descoberta
A IA analisou ativamente os alvos, identificou vulnerabilidades, mapeou portas expostas, endpoints internos e serviços críticos. Esse processo foi conduzido de forma metódica e contínua, automatizando tarefas tradicionalmente demoradas.
Exploração
Após o reconhecimento, o Claude Code gerou payloads personalizados, adaptados às vulnerabilidades encontradas. Os operadores humanos apenas revisaram e autorizaram o momento de enviar os exploits. A IA ajustava os scripts em tempo real com base nas respostas das máquinas comprometidas.
Pós-exploração
Uma vez dentro das redes, o modelo conduziu coleta de credenciais, instalou backdoors e executou movimentação lateral para atingir sistemas mais profundos. Também iniciou análise e categorização automática de documentos roubados.
Geração de documentação
Em um movimento surpreendente, a IA produziu documentação detalhada de cada etapa do ataque. Isso incluía logs, diagramas e instruções técnicas, possivelmente para permitir que outras equipes assumissem ou ampliassem a operação no futuro.
Uma falha irônica na máquina: as alucinações da IA
Apesar da sofisticação, a campanha sofreu com uma limitação conhecida dos modelos avançados: as alucinações. Em vários momentos, o Claude Code inventou dados, criando credenciais inexistentes ou apresentando informações públicas como se fossem descobertas valiosas de espionagem. Para os hackers, isso representou “grandes obstáculos” à eficácia do ataque, evidenciando que, embora poderosa, a tecnologia ainda não é totalmente confiável.
Segundo a Anthropic, essas falhas foram determinantes para detectar comportamentos suspeitos e iniciar a investigação interna.
Conclusão: a barreira para ciberataques sofisticados caiu
A Anthropic foi categórica ao afirmar que “as barreiras para a realização de ciberataques sofisticados diminuíram substancialmente”. Antes, uma operação como a GTG-1002 seria possível apenas com grandes equipes de hackers experientes, infraestrutura avançada e meses de preparação. Agora, com IA agindo como agente autônomo, grupos menos experientes — inclusive criminosos comuns — poderão conduzir ataques sofisticados em escala global.
Essa revelação chega após casos menores envolvendo o uso de ChatGPT ou Gemini em ações maliciosas, mas a operação GTG-1002 é de outra categoria: mais ampla, mais automatizada e mais perigosa. Ela inaugura uma era em que IA ofensiva não é mais teórica, e sim parte ativa das capacidades de Estados e, futuramente, de criminosos em geral.
Estamos diante de um divisor de águas. A grande pergunta agora é: será que empresas como Anthropic, Google e OpenAI realmente conseguirão impedir que suas tecnologias sejam usadas dessa forma? Deixe sua opinião nos comentários e participe do debate sobre o futuro da IA em ciberataques.
