Hackers usando Gemini: Google alerta sobre IA sendo usada para criar malwares

A IA entrou oficialmente no campo de batalha da cibersegurança.

Escrito por
Jardeson Márcio
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista...

O mais recente relatório do Google Threat Intelligence Group (GTIG) acendeu um alerta importante no setor de segurança digital: hackers usando Gemini já não são uma hipótese teórica, mas uma realidade operacional. Segundo a análise, grupos avançados patrocinados por Estados estão explorando a IA do Google para acelerar etapas críticas de ataques cibernéticos, desde o reconhecimento até a exfiltração de dados sensíveis.

O impacto vai além da sofisticação técnica. Ferramentas de Inteligência Artificial, criadas para ampliar a produtividade e a inovação, agora também se tornaram multiplicadores de capacidade para agentes maliciosos. Países como China, Irã, Coreia do Norte e Rússia aparecem no relatório associados a campanhas que demonstram um novo nível de automação e escala.

Para especialistas, esse movimento marca uma mudança estrutural no cenário de ameaças: a IA deixa de ser apenas um suporte e passa a atuar como um verdadeiro copiloto do cibercrime.

O Gemini no arsenal do cibercrime

O relatório descreve como hackers usando Gemini estão incorporando a IA em fluxos completos de ataque. Grupos ligados à China, como o APT31, e operadores associados ao Irã, como o APT42, utilizam a ferramenta principalmente para tarefas de reconhecimento e preparação.

Entre os usos identificados estão:

  • Mapeamento de infraestrutura de redes
  • Identificação de softwares vulneráveis
  • Geração automatizada de scripts para testes
  • Pesquisa sobre técnicas de evasão de detecção

Embora o Gemini possua salvaguardas, os atacantes frequentemente reformulam solicitações para obter respostas úteis sem acionar bloqueios. Essa técnica, conhecida como prompt engineering malicioso, permite extrair orientações técnicas aparentemente legítimas, mas que podem ser adaptadas para operações ofensivas.

Outro ponto relevante é a velocidade. O que antes exigia horas de pesquisa agora pode ser realizado em minutos, reduzindo a barreira de entrada até mesmo para operadores menos experientes dentro dessas organizações.

imagem de hacker

Engenharia social e phishing aprimorado

Um dos usos mais preocupantes envolve campanhas de engenharia social. Os hackers usando Gemini conseguem produzir mensagens extremamente convincentes, com linguagem natural e praticamente sem erros gramaticais.

A IA também tem sido empregada para:

  • Criar e-mails de phishing personalizados
  • Traduzir mensagens com precisão quase nativa
  • Adaptar o tom cultural para diferentes regiões
  • Simular comunicações corporativas reais

Esse refinamento aumenta drasticamente as taxas de sucesso dos ataques, já que as vítimas encontram menos sinais clássicos de fraude.

Além disso, a capacidade de gerar variações rápidas de uma mesma campanha dificulta a atuação de filtros tradicionais de segurança.

HonestCue e CoinBait: O malware gerado por IA

Talvez o trecho mais alarmante do relatório seja a identificação de malwares que tiveram partes do código geradas com apoio direto da IA.

Esses casos demonstram que a tecnologia não está apenas auxiliando na fase de planejamento, ela já participa da criação de ferramentas ofensivas.

HonestCue: Código C# sob demanda

O HonestCue é descrito como um exemplo claro de desenvolvimento assistido por IA. Investigadores descobriram que a API do Gemini foi utilizada para gerar trechos de código em C# capazes de executar cargas maliciosas diretamente na memória.

Essa abordagem traz vantagens estratégicas para os atacantes:

  • Reduz rastros no disco
  • Dificulta análises forenses
  • Evita detecção baseada em assinaturas

O malware opera no modelo fileless, cada vez mais popular entre grupos avançados justamente por sua discrição.

Outro fator preocupante é a modularidade. Com a IA, operadores podem solicitar ajustes quase instantâneos no código, criando variantes capazes de contornar defesas recém-atualizadas.

CoinBait: Phishing em React

Já o CoinBait mostra como frameworks modernos também entram nesse ecossistema. O kit utiliza React para construir páginas falsas que imitam com precisão interfaces de corretoras de criptomoedas.

O resultado são sites visualmente indistinguíveis dos originais, projetados para roubar:

  • Credenciais
  • Chaves privadas
  • Tokens de autenticação

O uso de IA acelera a clonagem dessas interfaces e permite replicar elementos de design com alto grau de fidelidade.

Em um contexto onde o mercado cripto movimenta bilhões, campanhas como essa têm potencial para causar prejuízos massivos em pouco tempo.

Roubo de inteligência: A extração de modelos

Outro conceito citado pelo GTIG é a chamada destilação de conhecimento, uma técnica que permite aos atacantes extrair padrões e comportamentos de modelos avançados para replicá-los em sistemas próprios.

Na prática, funciona assim:

  1. O atacante interage repetidamente com um modelo público.
  2. Analisa as respostas para identificar estruturas e lógica.
  3. Treina um modelo paralelo com comportamento semelhante.

Esse processo pode resultar em ferramentas clandestinas capazes de gerar textos de phishing, códigos ou estratégias de ataque sem depender diretamente da plataforma original.

Para o setor de segurança, isso representa um risco estratégico, uma vez “copiada”, a capacidade da IA torna-se muito mais difícil de controlar.

Conclusão e o futuro da segurança com IA

O relatório deixa claro que estamos entrando em uma nova fase da cibersegurança. O uso de IA por grupos como APT31 e APT42 indica que ataques tendem a se tornar mais rápidos, personalizados e difíceis de detectar.

O Google afirma estar reforçando proteções, aprimorando filtros e monitorando abusos para reduzir esse tipo de exploração. Ainda assim, especialistas alertam que a defesa precisará evoluir no mesmo ritmo da ameaça.

Para empresas e usuários, a recomendação principal é clara: investir em autenticação forte, manter sistemas atualizados e desconfiar de comunicações inesperadas.

A Inteligência Artificial continuará sendo uma das tecnologias mais transformadoras da década. Mas, como mostra o GTIG, ela também inaugura um campo de batalha digital onde vantagem e risco avançam lado a lado.

No fim das contas, a pergunta já não é se a IA será usada em ataques, e sim quão preparados estaremos quando isso se tornar o padrão.

Compartilhe este artigo