Malware via IA: Como Grok e Copilot estão sendo usados para Comando e Controle furtivo

Assistentes de IA estão sendo explorados como infraestrutura invisível de C2, elevando o nível das ameaças digitais.

Escrito por
Jardeson Márcio
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista...

A ideia de que assistentes de Inteligência Artificial servem apenas para gerar textos, resumir documentos ou automatizar tarefas já não reflete a realidade. Pesquisadores da Check Point demonstraram que ferramentas como Grok e Microsoft Copilot podem ser exploradas como intermediárias em esquemas de Comando e Controle (C2). Em vez de se comunicarem diretamente com servidores suspeitos, certos malwares utilizam essas plataformas de IA como “pontes” legítimas para enviar comandos e exfiltrar dados.

Esse novo cenário muda o debate sobre segurança digital. O problema não está apenas na IA como ferramenta, mas na forma como suas funcionalidades web podem ser manipuladas para criar um canal de C2 via Inteligência Artificial praticamente invisível aos mecanismos tradicionais de defesa.

Para profissionais de TI, administradores Linux e Windows e usuários atentos à segurança, trata-se de uma evolução preocupante nas técnicas de ataque.

O papel do Grok e do Microsoft Copilot no ataque

A pesquisa da Check Point mostra que o ponto explorado pelos atacantes está nos recursos de navegação e acesso a URLs externas integrados ao Grok e ao Microsoft Copilot.

Esses assistentes possuem a capacidade de consultar páginas públicas na internet, interpretar o conteúdo e devolver respostas processadas ao usuário. Essa funcionalidade, pensada para produtividade, pode ser manipulada por código malicioso.

O fluxo descrito pelos pesquisadores funciona assim:

  • O atacante publica instruções criptografadas em uma página web aparentemente comum.
  • O malware na máquina comprometida solicita ao assistente de IA que acesse aquela URL específica.
  • A IA recupera o conteúdo e o processa, retornando um texto.
  • O malware interpreta partes desse texto como comandos válidos.

Nesse modelo, o sistema infectado não se conecta diretamente a um servidor de controle malicioso. Ele se comunica com um serviço legítimo de IA. O tráfego registrado nos logs corporativos aparece como acesso normal ao Microsoft Copilot ou ao Grok, não como comunicação com infraestrutura criminosa.

É exatamente essa camada intermediária que caracteriza o chamado C2 via Inteligência Artificial.

Portanto, a Empresa demite 700 pessoas e diz possuir uma IA que funciona melhor

A técnica por trás do relé furtivo

Um dos elementos técnicos mais relevantes envolve o uso do WebView2, componente da Microsoft baseado no motor do navegador Edge.

O WebView2 permite incorporar uma instância completa de navegador dentro de uma aplicação. Segundo a análise divulgada, o malware utiliza esse recurso para carregar a interface web do Microsoft Copilot diretamente na máquina da vítima.

O ponto crítico é que não há necessidade de utilizar APIs oficiais. O código malicioso interage com a interface da IA como se fosse um usuário legítimo, enviando prompts e capturando respostas automaticamente.

Isso gera três impactos importantes:

  • Reduz a necessidade de credenciais específicas ou tokens de API.
  • Aproveita sessões já autenticadas no navegador da vítima.
  • Faz com que o tráfego pareça completamente legítimo, pois é uma navegação real via navegador embutido.

No caso do Grok, a exploração também se apoia em sua capacidade de acessar conteúdos externos e responder com base neles.

O resultado é um relé furtivo. O malware solicita que a IA busque ou processe determinado conteúdo. A resposta devolvida contém dados que podem incluir instruções codificadas ou informações extraídas da própria máquina comprometida.

Para ferramentas de monitoramento tradicionais, tudo parece uma simples interação com um assistente de IA.

Por que as ferramentas de segurança não detectam?

A eficácia dessa técnica está na confiança estrutural depositada em grandes provedores de tecnologia.

Soluções de firewall e proxy raramente bloqueiam domínios associados à Microsoft ou a plataformas amplamente utilizadas. Impedir acesso ao Microsoft Copilot pode impactar produtividade e fluxos de trabalho legítimos.

Esse modelo de ataque explora justamente essa confiança.

Além disso, os comandos podem ser codificados em formatos de alta entropia, como base64, misturados a texto aparentemente comum. Para sistemas de inspeção superficial, trata-se apenas de uma resposta textual da IA.

Outro fator é o uso de HTTPS legítimo. A comunicação ocorre dentro de conexões criptografadas, dificultando a inspeção profunda sem mecanismos avançados de análise.

Não há IP suspeito evidente. Não há domínio recém-criado. Não há beaconing clássico para servidor de C2 conhecido. O que existe é tráfego para um serviço de IA confiável.

Essa combinação torna o modelo de C2 via Inteligência Artificial particularmente desafiador para soluções tradicionais de segurança baseadas em reputação e bloqueio estático.

O futuro das ameaças baseadas em IA

O abuso de assistentes de IA como infraestrutura intermediária sinaliza uma mudança estratégica no ecossistema de ameaças.

Historicamente, a Inteligência Artificial tem sido incorporada à defesa, com foco em detecção de anomalias e resposta automatizada a incidentes. Agora, ela também pode ser explorada como parte da cadeia ofensiva.

Se essa abordagem evoluir, poderemos ver:

  • Fragmentação de comandos em múltiplas interações para reduzir padrões detectáveis.
  • Uso de diferentes assistentes para redundância de canal de C2.
  • Exploração de recursos multimodais para ocultar instruções em formatos alternativos.

Para empresas, isso exige um olhar além da simples filtragem de domínios. Monitoramento comportamental passa a ser essencial. Interações automatizadas incomuns com ferramentas como o Microsoft Copilot podem indicar atividade maliciosa.

Também se torna importante revisar políticas de uso de IA em ambientes corporativos, especialmente em sistemas críticos.

Para administradores Linux e Windows, a recomendação é clara: reforçar controles de execução de aplicações, monitorar uso de componentes como o WebView2 e investir em soluções com análise comportamental avançada.

Conclusão

A descoberta apresentada pela Check Point mostra que assistentes como Grok e Microsoft Copilot podem ser transformados em pontes discretas para Comando e Controle (C2).

Não se trata de falhas simples nas plataformas, mas de um uso criativo e malicioso de funcionalidades legítimas. O uso do WebView2, a navegação integrada e a confiança em domínios reconhecidos criam um cenário em que o tráfego parece normal, mesmo quando faz parte de uma cadeia de ataque.

A Inteligência Artificial continuará sendo peça central na transformação digital. No entanto, sua presença crescente também amplia a superfície de ataque.

Para quem trabalha com tecnologia e segurança, a pergunta não é mais se a IA pode ser explorada, mas como adaptar os modelos de defesa para lidar com essa nova realidade.

Compartilhe este artigo
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista em Android, Apple, Cibersegurança e diversos outros temas do universo tecnológico. Seu foco é trazer análises aprofundadas, notícias e guias práticos sobre segurança digital, mobilidade, sistemas operacionais e as últimas inovações que moldam o cenário da tecnologia.