A OpenAI anunciou uma medida drástica para proteger a integridade de suas plataformas: a desativação de contas do ChatGPT supostamente vinculadas a grupos de hackers estatais da Rússia, China e Irã. Esses agentes vinham utilizando os modelos da empresa para fins maliciosos, incluindo o desenvolvimento de malware, automação de mídias sociais e engenharia reversa de tecnologias críticas, como sistemas de comunicação via satélite dos Estados Unidos.
OpenAI bane contas de ChatGPT usadas por hackers russos, chineses e iranianos

Operações maliciosas e uso de IA para desenvolvimento de malware
A OpenAI detalhou que agentes russófonos utilizaram o ChatGPT para criar e aprimorar um malware baseado em Go, nomeado internamente como ScopeCreep. Essa ameaça era distribuída por meio de repositórios públicos de código, mascarando-se como uma suposta ferramenta legítima de sobreposição de mira para videogames, chamada Crosshair X.
Segundo a OpenAI, os hackers usaram contas de e-mail descartáveis para registrar múltiplas contas no ChatGPT. Cada conta era usada para realizar uma pequena alteração incremental no código malicioso antes de ser abandonada. Essa abordagem demonstra um nível elevado de operação com foco em OPSEC (segurança operacional).
“O malware foi projetado para aumentar privilégios, estabelecer persistência furtiva, notificar o agente da ameaça e exfiltrar dados confidenciais, evitando a detecção”, afirmou o relatório.
Entre as técnicas observadas no ScopeCreep estão:
- Execução via
ShellExecuteW
; - Uso do PowerShell para exclusão de detecção pelo Windows Defender;
- Ofuscação com Base64;
- Carregamento lateral de DLLs;
- Utilização de proxies SOCKS5 para anonimato.
A carga útil final tinha como objetivo coletar cookies, tokens de autenticação e credenciais armazenadas em navegadores, além de enviar alertas a canais no Telegram controlados pelos invasores.
Envolvimento de grupos APT chineses
O segundo conjunto de contas desativadas foi ligado a grupos de hackers apoiados pela China, incluindo os conhecidos APT5 e APT15, também identificados por aliases como Bronze Fleetwood e Royal APT. Os agentes utilizaram o ChatGPT para atividades como:
- Administração de sistemas Linux;
- Desenvolvimento de software personalizado;
- Criação de pacotes para instalação offline;
- Ajuste de firewalls e servidores DNS;
- Pesquisa de métodos para automação de testes de penetração.
Além disso, foram observados usos do modelo para automatizar ações em redes sociais, como curtir e postar conteúdos em massa em plataformas como Facebook, Instagram, TikTok e X (antigo Twitter).
Ameaças globais e uso indevido da IA
A investigação também revelou outras campanhas de desinformação e manipulação, incluindo:
- Coreia do Norte: uso do ChatGPT para criar materiais de recrutamento falsos e aplicar a vagas remotas.
- Sneer Review: criação de conteúdo geopolítico em massa em múltiplos idiomas.
- Operação High Five: gerando comentários políticos em grande volume nas redes filipinas.
- Operação VAGue Focus: criação de perfis falsos de jornalistas e tradutores para engenharia social.
- Operação Helgoland Bite: uso de IA para estratégias ainda não divulgadas completamente.
Essas campanhas indicam uma tendência crescente de atores maliciosos utilizarem modelos de linguagem de última geração para fins cibercriminosos, o que representa um novo e perigoso vetor na cibersegurança global.
OpenAI reforça medidas de mitigação
A OpenAI destaca que os modelos utilizados não foram projetados nem otimizados para tarefas maliciosas, e que constantemente trabalha com parceiros como a Microsoft para detectar e mitigar abusos. A empresa também afirmou que nenhum desses modelos teve acesso privilegiado a dados confidenciais.
A desativação dessas contas marca um precedente importante no combate ao uso indevido da IA e evidencia a necessidade de regulamentações mais firmes e sistemas de auditoria em larga escala.
O que esperar a seguir?
Com o avanço da inteligência artificial generativa, a linha entre uso legítimo e abuso torna-se cada vez mais tênue. A vigilância ativa, o investimento em segurança cibernética e a cooperação internacional entre empresas de tecnologia e governos serão cruciais para mitigar riscos crescentes.
Além disso, a ação da OpenAI pode inspirar outras plataformas a adotarem posturas mais rígidas contra agentes estatais mal-intencionados, que veem na IA uma ferramenta poderosa de espionagem, manipulação e ataque.