ChatGPT usado por hackers da Rússia e China para ataques

Escrito por
Jardeson Márcio
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista...

OpenAI revela como grupos de espionagem e cibercrime estão usando sua IA para criar malware, phishing e campanhas de desinformação.

O ChatGPT para ataques cibernéticos deixou de ser uma hipótese. A OpenAI confirmou que grupos de ciberespionagem patrocinados por estados-nação estão utilizando seus modelos de linguagem para criar malware, realizar campanhas de phishing e disseminar desinformação.

Essa revelação causa grande preocupação na comunidade de segurança digital, pois mostra que o poder da inteligência artificial pode ser explorado não apenas para inovação, mas também para fins destrutivos.

Neste artigo, você vai descobrir quem são esses grupos, quais táticas eles utilizam, como a OpenAI respondeu a essas ameaças e quais são as implicações para o futuro da cibersegurança na era da IA.

O alerta da OpenAI: IA como ferramenta para o cibercrime

ChatGPT

A OpenAI confirmou que bloqueou múltiplas contas ligadas a grupos maliciosos da Rússia, China e Coreia do Norte que vinham explorando o ChatGPT para aprimorar seus ataques cibernéticos.

Embora o modelo se recuse a gerar códigos ou instruções diretamente maliciosas, os hackers encontraram formas de contornar essas limitações. Eles passaram a solicitar à IA pequenos blocos de código aparentemente inofensivos e depois os combinavam para criar scripts e malwares completos fora do ambiente do ChatGPT.

Essas contas estavam envolvidas em atividades como ofuscação de código, monitoramento de área de transferência, exfiltração de dados via bots do Telegram e pesquisa de vulnerabilidades públicas. A OpenAI desativou essas operações e reforçou suas políticas de detecção de uso abusivo de IA.

Os atores da ameaça em detalhe: quem são e o que fizeram

O grupo russo e o desenvolvimento de malware

Entre os casos identificados, grupos russos utilizaram o ChatGPT para desenvolver e aprimorar malwares complexos, incluindo trojans de acesso remoto (RATs) e ladrões de credenciais.

O modelo foi empregado para refinar scripts, melhorar persistência no sistema, codificar dados sensíveis e criar métodos de evasão de antivírus. Também houve uso do ChatGPT para automatizar partes do código que facilitavam a comunicação entre o dispositivo comprometido e os servidores de controle (C2).

Essas técnicas tornaram os ataques mais rápidos de serem montados e mais difíceis de serem detectados.

A célula norte-coreana e suas táticas de phishing

Grupos ligados à Coreia do Norte foram flagrados utilizando a IA para criar e-mails de phishing convincentes e páginas falsas com aparência profissional.

Além disso, a célula usou o ChatGPT para gerar ferramentas personalizadas para macOS, explorar técnicas de evasão no Windows e até para analisar vulnerabilidades conhecidas.

A inteligência artificial também foi usada para traduzir e adaptar conteúdos de ataque para diferentes idiomas, ampliando o alcance global de suas campanhas fraudulentas.

O cluster chinês (UNK_DropPitch) e a automação de tarefas

O grupo chinês conhecido como UNK_DropPitch se destacou por usar o ChatGPT para automatizar tarefas relacionadas ao ciclo de ataque.

Entre as atividades detectadas estão a geração de conteúdo de phishing multilíngue, busca por ferramentas de código aberto como nuclei e fscan, e criação de instruções para operações automatizadas.

Além do uso ofensivo, o grupo também explorou a IA para acelerar processos administrativos, como gerar relatórios, instruções técnicas e traduções de material de espionagem.

Muito além do malware: as operações de influência e fraude

Campanhas de desinformação e vigilância governamental

A OpenAI também identificou que a IA estava sendo usada em operações de influência e vigilância estatal.

Grupos chineses, russos e norte-coreanos aproveitaram o ChatGPT para criar narrativas de desinformação, manipular opiniões em redes sociais e promover propaganda política.

Em alguns casos, a IA foi usada para projetar sistemas de monitoramento de redes sociais, com o objetivo de identificar e rastrear protestos e movimentos de oposição.

Outros operadores usaram o ChatGPT para criar perfis falsos, currículos fraudulentos e até textos para golpes financeiros, mostrando o amplo espectro de abuso da tecnologia.

O jogo de gato e rato: removendo os “sinais” da IA

Um detalhe curioso e preocupante é que os hackers estão aprendendo a remover os traços característicos que denunciam o uso de IA em textos e códigos.

Alguns grupos instruíram explicitamente o ChatGPT a evitar padrões de pontuação típicos de modelos de linguagem, como o uso de travessões longos (em-dashes). Outros passaram a revisar manualmente o conteúdo gerado para eliminar qualquer indício de origem artificial.

Essa prática dificulta a detecção automatizada de conteúdos criados por IA e aumenta o risco de disseminação de desinformação e código malicioso sem rastros.

Conclusão: o novo campo de batalha da segurança em IA

O relatório da OpenAI reforça uma realidade incontornável: a inteligência artificial está se tornando uma ferramenta de guerra cibernética.

Embora a empresa afirme que o ChatGPT não oferece capacidades ofensivas inéditas, sua eficiência, velocidade e acessibilidade tornam o processo de ataque muito mais ágil e escalável.

Para o setor de segurança, isso marca o início de uma nova era de defesa digital, onde será preciso:

  • Monitorar com mais rigor o uso de modelos de linguagem.
  • Desenvolver métodos para detectar conteúdo e código gerado por IA.
  • Implementar políticas de governança e ética no uso corporativo da tecnologia.

A corrida entre o uso ofensivo e defensivo da IA já começou. Enquanto a OpenAI bloqueia contas suspeitas, outras empresas como a Anthropic lançam soluções como o Petri, voltadas para detectar e conter abusos de IA antes que causem danos em larga escala.

E você? O que acha que as empresas de inteligência artificial deveriam fazer para impedir esse tipo de abuso? Deixe sua opinião nos comentários e participe da discussão sobre o futuro da segurança digital.

Compartilhe este artigo
Follow:
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista em Android, Apple, Cibersegurança e diversos outros temas do universo tecnológico. Seu foco é trazer análises aprofundadas, notícias e guias práticos sobre segurança digital, mobilidade, sistemas operacionais e as últimas inovações que moldam o cenário da tecnologia.