A Europol adverte que as organizações cibercriminosas podem tirar proveito de sistemas baseados em inteligência artificial como o ChatGPT. O órgão policial da UE, alertou sobre o potencial abuso de sistemas baseados em inteligência artificial, para atividades cibercriminosas.
Grupos cibercriminosos podem usar chatbot como o ChatGPT em ataques de engenharia social, campanhas de desinformação e outras atividades cibercriminosas, como o desenvolvimento de códigos maliciosos, alerta a Europol.
Europol alerta para uso criminoso do ChatGPT
O ChatGPT da OpenAI está se tornando ainda mais atraente para organizações cibercriminosas que estão avaliando como usar seus enormes recursos.
Como os recursos dos Large Language Models (LLMs), como o ChatGPT, estão sendo aprimorados ativamente, a exploração potencial desses tipos de sistemas de IA por criminosos fornece uma perspectiva sombria.
Europol
As três áreas de crime a seguir estão entre as muitas áreas de preocupação identificadas pelos especialistas da Europol:
Fraude e engenharia social
A capacidade do ChatGPT de redigir textos altamente realistas o torna uma ferramenta útil para fins de phishing. A capacidade dos LLMs de reproduzir padrões de linguagem pode ser usada para representar o estilo de fala de indivíduos ou grupos específicos.
Essa capacidade pode ser abusada em grande escala para induzir vítimas em potencial a colocar sua confiança nas mãos de criminosos.
Desinformação
ChatGPT se destaca na produção de texto com som autêntico em velocidade e escala. Isso torna o modelo ideal para fins de propaganda e desinformação, pois permite aos usuários gerar e espalhar mensagens que refletem uma narrativa específica com relativamente pouco esforço.
Cibercrime
Além de gerar linguagem semelhante à humana, o ChatGPT é capaz de produzir código em várias linguagens de programação diferentes. Para um potencial criminoso com pouco conhecimento técnico, este é um recurso inestimável para produzir códigos maliciosos.
De acordo com a Europol, tecnologias como ChatGPT podem acelerar significativamente cada fase de uma cadeia de ataque. O chatbot também pode ser abusado por agentes de ameaças com pouco ou nenhum conhecimento técnico para realizar atividades fraudulentas, como o desenvolvimento de códigos maliciosos.
A polícia europeia alerta para as melhorias esperadas das capacidades de modelos generativos como o ChatGPT. GPT-4, a versão mais recente, já fez melhorias significativas em relação às versões anteriores, seus recursos podem fornecer assistência mais eficaz para atividades cibercriminosas.
O relatório destaca a importância de preparar a comunidade de aplicação da lei em
aplicativos positivos e negativos baseados em IA que podem afetar seus negócios diários. Os alertas estão aí! Agora, medidas de segurança precisam sem implementadas para garantir que essas ferramentas de IA não serão usadas para fins escusos.