Os pesquisadores da Check Point Software descobriram atividade intensa dos cibercriminosos no uso de bots do Telegram para despistarem as restrições de antiabuso do ChatGPT e outras ferramentas baseadas na OpenAI para criar malware. Embora a OpenAI tenha atualizado sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso e uso inapropriado, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT.
A equipe da Check Point Research detectou anúncios de bots do Telegram em fóruns clandestinos, nos quais os criadores do bot concedem até 20 consultas gratuitas ao valor de US $ 5,50 (cerca de R$ 28,81) por cada 100 consultas.
ChatGPT explorado para depuração de código malicioso e criação de malware
A Check Point Research (CPR) detectou um crescimento no uso dessa ferramenta de IA usada para depurar e melhorar códigos maliciosos, como o Infostealer, bem como para criar ransomware ou ferramentas de phishing. Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso.
Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades. No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT.
A equipe de pesquisadores da Check Point Research detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT. Foram identificados anúncios de bots do Telegram em fóruns clandestinos a um preço baixíssimo, mencionado anteriormente.
De acordo com a Check Point, os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI. Sergey Shykevich gerente do Grupo de Ameaças da Check Point Softwar detalhou:
Como parte de sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso em sua plataforma. No entanto, verificamos cibercriminosos contornando as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos revelando como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente criando bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar sua exposição.
Ainda segundoShykevich, a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Assim, a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário são facilitadas.