Pesquisador afirma ter criado um malware sofisticado usando o ChatGPT

A IA pode ser usada para criação de malwares

O ChatGPT foi lançado ainda em 2022 e, muitas empresas logo correram para trazerem a público as suas próprias IAs. No entanto, há muita preocupação com o uso dessas ferramentas. Agora, inclusive, um pesquisador afirma ter criado um malware sofisticado usando o ChatGPT.

ChatGPT usado para criar malware sofisticado

Agora que as ferramentas de IA, como Bard e ChatGPT, estão disponíveis ao público, talvez seja hora de começar a fazer perguntas sobre segurança. Sobretudo depois que alguém o usou para criar um sofisticado programa de malware quase indetectável.

De acordo com a Digital Trends (Via: Android Authority) , o pesquisador de segurança do Forcepoint, Aaron Mulgrew, diz que criou malware de zero dia usando apenas o ChatGPT. Embora o chatbot da Open AI tenha proteções que normalmente impedem os usuários de fazer isso, o pesquisador parece ter acahdo uma brecha.

Em vez de fazer com que o software criasse o malware de uma só vez, Mulgrew supostamente fez a IA escrever linhas separadas de código malicioso. Depois que o processo foi concluído, Mulgrew foi capaz de compilar as funções individuais em um único programa coeso de roubo de dados. Essa foi a maneira que ele encontrou de burlar o mecanismo de segurança do chatbot da OpenAI.

O malware criado

De acordo com as informações, o malware em questão se disfarça como um aplicativo de proteção de tela que é iniciado automaticamente no Windows. Ele é capaz de pegar dados de arquivos, dividi-los em pedaços menores que se escondem nas imagens e fazer upload desses dados para uma pasta do Google Drive.

O fato de Mulgrew ter sido capaz de criar malware dessa maneira é bastante assustador, mas fica pior. Alegadamente, Mulgrew foi capaz de refinar e fortalecer seu código com o ChatGPT a ponto de os testes do VirusTotal não conseguirem mais detectá-lo.

Além disso, o malware também é considerado tão sofisticado quanto qualquer ameaça em nível de estado-nação. No entanto, a parte realmente assustadora é o fato de que ele fez tudo isso sozinho em questão de horas. A criação de malware desse nível geralmente seria um esforço de equipe e exigiria semanas de trabalho para compilar.

Felizmente, o malware não está disponível publicamente. Este foi apenas um teste que Mulgrew estava conduzindo. Mas isso mostra o quão perigoso o ChatGPT pode estar nas mãos erradas. E, o quanto essas ferramentas de IA precisam ser melhoradas antes de serem disponibilizadas ao público.

Share This Article
Follow:
Jardeson é Mestre em Tecnologia Agroalimentar e Licenciado em Ciências Agrária pela Universidade Federal da Paraíba. Entusiasta no mundo tecnológico, gosta de arquitetura e design gráfico. Economia, tecnologia e atualidade são focos de suas leituras diárias. Acredita que seu dia pode ser salvo por um vídeo engraçado.
Sair da versão mobile