O ChatGPT para ataques cibernéticos deixou de ser uma hipótese. A OpenAI confirmou que grupos de ciberespionagem patrocinados por estados-nação estão utilizando seus modelos de linguagem para criar malware, realizar campanhas de phishing e disseminar desinformação.
- O alerta da OpenAI: IA como ferramenta para o cibercrime
- Os atores da ameaça em detalhe: quem são e o que fizeram
- O grupo russo e o desenvolvimento de malware
- A célula norte-coreana e suas táticas de phishing
- O cluster chinês (UNK_DropPitch) e a automação de tarefas
- Muito além do malware: as operações de influência e fraude
- Campanhas de desinformação e vigilância governamental
- O jogo de gato e rato: removendo os “sinais” da IA
- Conclusão: o novo campo de batalha da segurança em IA
Essa revelação causa grande preocupação na comunidade de segurança digital, pois mostra que o poder da inteligência artificial pode ser explorado não apenas para inovação, mas também para fins destrutivos.
Neste artigo, você vai descobrir quem são esses grupos, quais táticas eles utilizam, como a OpenAI respondeu a essas ameaças e quais são as implicações para o futuro da cibersegurança na era da IA.
O alerta da OpenAI: IA como ferramenta para o cibercrime

A OpenAI confirmou que bloqueou múltiplas contas ligadas a grupos maliciosos da Rússia, China e Coreia do Norte que vinham explorando o ChatGPT para aprimorar seus ataques cibernéticos.
Embora o modelo se recuse a gerar códigos ou instruções diretamente maliciosas, os hackers encontraram formas de contornar essas limitações. Eles passaram a solicitar à IA pequenos blocos de código aparentemente inofensivos e depois os combinavam para criar scripts e malwares completos fora do ambiente do ChatGPT.
Essas contas estavam envolvidas em atividades como ofuscação de código, monitoramento de área de transferência, exfiltração de dados via bots do Telegram e pesquisa de vulnerabilidades públicas. A OpenAI desativou essas operações e reforçou suas políticas de detecção de uso abusivo de IA.
Os atores da ameaça em detalhe: quem são e o que fizeram
O grupo russo e o desenvolvimento de malware
Entre os casos identificados, grupos russos utilizaram o ChatGPT para desenvolver e aprimorar malwares complexos, incluindo trojans de acesso remoto (RATs) e ladrões de credenciais.
O modelo foi empregado para refinar scripts, melhorar persistência no sistema, codificar dados sensíveis e criar métodos de evasão de antivírus. Também houve uso do ChatGPT para automatizar partes do código que facilitavam a comunicação entre o dispositivo comprometido e os servidores de controle (C2).
Essas técnicas tornaram os ataques mais rápidos de serem montados e mais difíceis de serem detectados.
A célula norte-coreana e suas táticas de phishing
Grupos ligados à Coreia do Norte foram flagrados utilizando a IA para criar e-mails de phishing convincentes e páginas falsas com aparência profissional.
Além disso, a célula usou o ChatGPT para gerar ferramentas personalizadas para macOS, explorar técnicas de evasão no Windows e até para analisar vulnerabilidades conhecidas.
A inteligência artificial também foi usada para traduzir e adaptar conteúdos de ataque para diferentes idiomas, ampliando o alcance global de suas campanhas fraudulentas.
O cluster chinês (UNK_DropPitch) e a automação de tarefas
O grupo chinês conhecido como UNK_DropPitch se destacou por usar o ChatGPT para automatizar tarefas relacionadas ao ciclo de ataque.
Entre as atividades detectadas estão a geração de conteúdo de phishing multilíngue, busca por ferramentas de código aberto como nuclei e fscan, e criação de instruções para operações automatizadas.
Além do uso ofensivo, o grupo também explorou a IA para acelerar processos administrativos, como gerar relatórios, instruções técnicas e traduções de material de espionagem.
Muito além do malware: as operações de influência e fraude
Campanhas de desinformação e vigilância governamental
A OpenAI também identificou que a IA estava sendo usada em operações de influência e vigilância estatal.
Grupos chineses, russos e norte-coreanos aproveitaram o ChatGPT para criar narrativas de desinformação, manipular opiniões em redes sociais e promover propaganda política.
Em alguns casos, a IA foi usada para projetar sistemas de monitoramento de redes sociais, com o objetivo de identificar e rastrear protestos e movimentos de oposição.
Outros operadores usaram o ChatGPT para criar perfis falsos, currículos fraudulentos e até textos para golpes financeiros, mostrando o amplo espectro de abuso da tecnologia.
O jogo de gato e rato: removendo os “sinais” da IA
Um detalhe curioso e preocupante é que os hackers estão aprendendo a remover os traços característicos que denunciam o uso de IA em textos e códigos.
Alguns grupos instruíram explicitamente o ChatGPT a evitar padrões de pontuação típicos de modelos de linguagem, como o uso de travessões longos (em-dashes). Outros passaram a revisar manualmente o conteúdo gerado para eliminar qualquer indício de origem artificial.
Essa prática dificulta a detecção automatizada de conteúdos criados por IA e aumenta o risco de disseminação de desinformação e código malicioso sem rastros.
Conclusão: o novo campo de batalha da segurança em IA
O relatório da OpenAI reforça uma realidade incontornável: a inteligência artificial está se tornando uma ferramenta de guerra cibernética.
Embora a empresa afirme que o ChatGPT não oferece capacidades ofensivas inéditas, sua eficiência, velocidade e acessibilidade tornam o processo de ataque muito mais ágil e escalável.
Para o setor de segurança, isso marca o início de uma nova era de defesa digital, onde será preciso:
- Monitorar com mais rigor o uso de modelos de linguagem.
- Desenvolver métodos para detectar conteúdo e código gerado por IA.
- Implementar políticas de governança e ética no uso corporativo da tecnologia.
A corrida entre o uso ofensivo e defensivo da IA já começou. Enquanto a OpenAI bloqueia contas suspeitas, outras empresas como a Anthropic lançam soluções como o Petri, voltadas para detectar e conter abusos de IA antes que causem danos em larga escala.
E você? O que acha que as empresas de inteligência artificial deveriam fazer para impedir esse tipo de abuso? Deixe sua opinião nos comentários e participe da discussão sobre o futuro da segurança digital.