A OpenAI anunciou recentemente o bloqueio de diversas contas que estavam explorando o ChatGPT para atividades fraudulentas e maliciosas. As redes identificadas utilizavam a inteligência artificial para espionagem digital, influência política e fraudes financeiras, demonstrando um uso cada vez mais sofisticado da IA para propósitos questionáveis.
OpenAI desativa contas por uso indevido da IA
Uma das operações desmanteladas envolvia uma ferramenta de monitoramento avançada, supostamente desenvolvida na China, que combinava modelos de IA, incluindo o Llama da Meta, para coletar dados sobre protestos anti-China no Ocidente. Essa ferramenta, denominada “Peer Review”, rastreava e analisava postagens em plataformas como X (antigo Twitter), Facebook, YouTube, Instagram, Telegram e Reddit, repassando informações às autoridades chinesas.
Em um dos casos investigados, os agentes utilizavam o ChatGPT para corrigir e aprimorar o código-fonte de um software de vigilância conhecido como “Qianyue Overseas Public Opinion AI Assistant”. A IA também foi usada para pesquisar dados sobre think tanks dos EUA, perfis de políticos na Austrália e Camboja e para traduzir documentos confidenciais.
Redes maliciosas identificadas
A OpenAI também revelou outras operações maliciosas que utilizavam o ChatGPT para diversos fins ilícitos:
- Fraude em empregos remotos: Um grupo ligado à Coreia do Norte utilizava a IA para criar identidades falsas, produzindo currículos e perfis para enganar empresas no LinkedIn e conseguir acesso a sistemas corporativos sigilosos.
- Propaganda política disfarçada: Uma rede possivelmente chinesa estava gerando conteúdo em inglês e espanhol para criticar os EUA e disseminar desinformação na América Latina, com publicações em sites de notícias no Peru, México e Equador. Parte dessa atividade estava relacionada ao grupo Spamouflage.
- Golpes românticos e financeiros: Fraudadores, baseados no Camboja, exploravam o ChatGPT para traduzir e automatizar mensagens em inglês, japonês e chinês em golpes que enganavam usuários de redes sociais como Facebook, X e Instagram.
- Influência digital do Irã: Um grupo de cinco contas utilizava a IA para produzir postagens e artigos alinhados a narrativas pró-Palestina, pró-Hamas e pró-Irã, ao mesmo tempo em que promovia discursos contra Israel e os EUA. O conteúdo era distribuído por meios ligados à International Union of Virtual Media (IUVM) e Storm-2035.
- Hackers norte-coreanos: Atores mal-intencionados vinculados ao Kimsuky e ao BlueNoroff usavam o ChatGPT para acessar informações sobre ataques cibernéticos e criptomoedas, além de aprimorar códigos para ataques de força bruta contra servidores remotos.
- Manipulação política em Gana: Um grupo publicou artigos e comentários em inglês no site “Empowering Ghana” para influenciar a eleição presidencial do país.
- Fraudes com “tarefas online”: Um grupo, possivelmente do Camboja, promovia golpes prometendo pagamentos por atividades simples, como curtir vídeos ou escrever avaliações, exigindo que as vítimas fizessem pagamentos antecipados.
Aumento do uso de IA em ciberataques
O uso indevido da IA para fraudes e campanhas de desinformação tem crescido de forma alarmante. No mês passado, o Google Threat Intelligence Group (GTIG) revelou que pelo menos 57 grupos ligados a China, Irã, Coreia do Norte e Rússia estavam explorando IA para aperfeiçoar ataques, gerar desinformação e otimizar processos de tradução e localização de conteúdo.
A OpenAI reforçou a importância da cooperação entre empresas de IA, provedores de hospedagem e redes sociais para monitorar e interromper ameaças digitais. A troca de informações entre esses setores pode fortalecer a segurança cibernética global e dificultar a disseminação de campanhas de influência manipulativa.