A inteligência artificial generativa se consolidou como uma ferramenta poderosa para produtividade, automação e inovação. No entanto, um relatório recente da Google confirma um cenário preocupante: agentes ligados a governos estão explorando o Gemini para potencializar operações de espionagem e ataques digitais em escala global.
O documento detalha a atuação de grupos sofisticados como UNC2970, APT41, Lazarus Group e APT42, revelando como essas organizações utilizam modelos de linguagem para aprimorar campanhas de engenharia social, criar códigos maliciosos e automatizar processos que antes exigiam alto nível técnico.
A implicação mais crítica desse movimento é clara: a barreira de entrada para ataques avançados está diminuindo. Com a ajuda de LLMs, atores maliciosos conseguem acelerar etapas como reconhecimento, desenvolvimento de malware e criação de iscas convincentes, tornando a segurança cibernética e IA um dos temas mais urgentes da atualidade.
O grupo UNC2970 e a engenharia social de elite
Entre os exemplos mais alarmantes do relatório está o grupo UNC2970, associado à Coreia do Norte. A organização conduz uma campanha conhecida como “Operação Emprego dos Sonhos”, cujo objetivo é infiltrar-se em empresas estratégicas por meio de engenharia social altamente sofisticada.
Os operadores utilizam o Gemini para gerar descrições de vagas extremamente realistas, roteiros de entrevistas e até perfis falsos de recrutadores em plataformas profissionais. Essa abordagem aumenta drasticamente a taxa de sucesso dos ataques, pois as mensagens se tornam praticamente indistinguíveis de comunicações legítimas.
O método geralmente segue três etapas:
- Criação de identidades corporativas falsas com histórico convincente
- Abordagem de profissionais com ofertas atrativas
- Envio de arquivos ou links que levam à execução de código malicioso
O uso de IA permite personalizar cada interação, reduzindo sinais clássicos de fraude e tornando os ataques mais difíceis de detectar.

Além do phishing: Malware gerado por IA e ataques fileless
Se o phishing já representava um risco significativo, o relatório mostra que os hackers usando Gemini estão indo além. Uma das descobertas envolve o malware HONESTCUE, capaz de operar em ataques fileless, técnica que evita a gravação de arquivos no disco e dificulta a detecção por antivírus tradicionais.
Outro destaque é o kit de phishing COINBAIT, projetado para roubar credenciais de carteiras de criptomoedas. O diferencial está na automação: os criminosos utilizam a API do Gemini para gerar trechos de código em C# quase em tempo real.
Na prática, isso significa que operadores podem adaptar rapidamente suas ferramentas conforme as defesas evoluem. Em vez de reutilizar malware antigo, eles passam a criar variantes sob demanda.
Entre as principais vantagens dessa abordagem para os atacantes estão:
- Desenvolvimento mais rápido de payloads
- Redução de erros humanos no código
- Capacidade de testar múltiplas versões simultaneamente
- Atualizações quase instantâneas
Esse cenário reforça uma mudança estrutural na segurança cibernética e IA: a velocidade do ataque começa a superar o tempo de resposta das defesas tradicionais.
Um panorama global das ameaças
O fenômeno não está restrito a um único país. O relatório aponta uma adoção crescente da IA por diferentes blocos geopolíticos.
China
Grupos associados à China, como APT41 e Mustang Panda, utilizam modelos de linguagem principalmente para:
- Tradução e adaptação cultural de campanhas
- Produção de documentos falsos
- Coleta automatizada de informações abertas (OSINT)
Essa estratégia amplia o alcance das operações e facilita ataques contra alvos internacionais.
Irã
Já atores ligados ao Irã, incluindo o APT42, focam em vigilância e espionagem. O Gemini é empregado para resumir grandes volumes de dados, identificar padrões e auxiliar na criação de narrativas convincentes para manipulação informacional.
O resultado é um ecossistema de ameaças cada vez mais profissionalizado, onde a IA funciona como multiplicador de força.
O perigo da extração de modelos
Outro ponto crítico abordado no relatório é a tentativa de extrair a inteligência do próprio modelo por meio de consultas massivas. Essa técnica parte do princípio de que “comportamento é o modelo”.
Ao enviar milhares de prompts cuidadosamente elaborados, pesquisadores maliciosos tentam mapear respostas, compreender limites e até replicar padrões do Gemini em sistemas paralelos.
Embora não seja simples copiar um LLM moderno, mesmo reproduções parciais podem oferecer vantagens estratégicas, como:
- Criação de assistentes internos para operações clandestinas
- Redução de custos com ferramentas comerciais
- Maior sigilo nas campanhas
Esse tipo de exploração representa um novo campo de batalha na segurança cibernética e IA, onde proteger o modelo passa a ser tão importante quanto proteger os dados.
Conclusão e o futuro da defesa digital
O relatório da Google deixa claro que a IA não é apenas uma revolução produtiva, mas também um vetor emergente de risco. Os hackers usando Gemini demonstram que qualquer avanço tecnológico pode ser rapidamente adaptado para fins ofensivos.
Para organizações, isso significa repensar estratégias de defesa. Ferramentas baseadas em comportamento, detecção de anomalias e inteligência de ameaças deverão ganhar ainda mais relevância nos próximos anos.
Ao mesmo tempo, cresce a necessidade de colaboração entre empresas de tecnologia, governos e pesquisadores para estabelecer limites e desenvolver mecanismos de proteção mais robustos.
A pergunta que fica é inevitável: estamos preparados para um mundo onde ataques cibernéticos também são impulsionados por inteligência artificial?
