Agentes de ameaça driblam restrições do ChatGPT para criar malware

empresas-alemas-entram-na-onda-do-chatgpt-e-planejam-usar-ia

Os pesquisadores da Check Point Software descobriram atividade intensa dos cibercriminosos no uso de bots do Telegram para despistarem as restrições de antiabuso do ChatGPT e outras ferramentas baseadas na OpenAI para criar malware. Embora a OpenAI tenha atualizado sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso e uso inapropriado, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT.

A equipe da Check Point Research detectou anúncios de bots do Telegram em fóruns clandestinos, nos quais os criadores do bot concedem até 20 consultas gratuitas ao valor de US $ 5,50 (cerca de R$ 28,81) por cada 100 consultas.

ChatGPT explorado para depuração de código malicioso e criação de malware

A Check Point Research (CPR) detectou um crescimento no uso dessa ferramenta de IA usada para depurar e melhorar códigos maliciosos, como o Infostealer, bem como para criar ransomware ou ferramentas de phishing. Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso.

Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades. No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT.

A equipe de pesquisadores da Check Point Research detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT. Foram identificados anúncios de bots do Telegram em fóruns clandestinos a um preço baixíssimo, mencionado anteriormente.

agentes-de-ameaca-driblam-restricoes-do-chatgpt-para-criar-malware
Figura 1. Anúncio do fórum clandestino do bot OpenAI no Telegram
Imagem: | Check Point
agentes-de-ameaca-driblam-restricoes-do-chatgpt-para-criar-malware
Figura 2. Exemplo de e-mail de phishing criado por meio de um bot do Telegram usando a API OpenAI
Imagem: | Check Point
agentes-de-ameaca-driblam-restricoes-do-chatgpt-para-criar-malware
Figura 3. Exemplo de criação de malware por meio de um bot do Telegram usando a API OpenAI
Imagem: | Check Point

De acordo com a Check Point, os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI. Sergey Shykevich gerente do Grupo de Ameaças da Check Point Softwar detalhou:

Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição.

Ainda segundoShykevich, a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Assim, a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário são facilitadas.

Figura 4. Exemplo de um script que consulta diretamente a API e contorna as restrições para desenvolver malware
Imagem: | Check Point