Agentes de ameaça driblam restrições do ChatGPT para criar malware

Os pesquisadores da Check Point Software descobriram atividade intensa dos cibercriminosos no uso de bots do Telegram para despistarem as restrições de antiabuso do ChatGPT e outras ferramentas baseadas na OpenAI para criar malware. Embora a OpenAI tenha atualizado sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso e uso inapropriado, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT.

A equipe da Check Point Research detectou anúncios de bots do Telegram em fóruns clandestinos, nos quais os criadores do bot concedem até 20 consultas gratuitas ao valor de US $ 5,50 (cerca de R$ 28,81) por cada 100 consultas.

ChatGPT explorado para depuração de código malicioso e criação de malware

A Check Point Research (CPR) detectou um crescimento no uso dessa ferramenta de IA usada para depurar e melhorar códigos maliciosos, como o Infostealer, bem como para criar ransomware ou ferramentas de phishing. Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso.

Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades. No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT.

A equipe de pesquisadores da Check Point Research detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT. Foram identificados anúncios de bots do Telegram em fóruns clandestinos a um preço baixíssimo, mencionado anteriormente.

Figura 1. Anúncio do fórum clandestino do bot OpenAI no Telegram
Imagem: | Check Point
Figura 2. Exemplo de e-mail de phishing criado por meio de um bot do Telegram usando a API OpenAI
Imagem: | Check Point
Figura 3. Exemplo de criação de malware por meio de um bot do Telegram usando a API OpenAI
Imagem: | Check Point

De acordo com a Check Point, os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI. Sergey Shykevich gerente do Grupo de Ameaças da Check Point Softwar detalhou:

Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição.

Ainda segundoShykevich, a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Assim, a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário são facilitadas.

Figura 4. Exemplo de um script que consulta diretamente a API e contorna as restrições para desenvolver malware
Imagem: | Check Point
Share This Article
Follow:
Jardeson é Mestre em Tecnologia Agroalimentar e Licenciado em Ciências Agrária pela Universidade Federal da Paraíba. Entusiasta no mundo tecnológico, gosta de arquitetura e design gráfico. Economia, tecnologia e atualidade são focos de suas leituras diárias. Acredita que seu dia pode ser salvo por um vídeo engraçado.
Sair da versão mobile