ChatGPT pode ser usado por cibercriminosos para gerar mensagens fraudulentas em segundos

O ChatGPT tem causado uma grande revolução quando o assunto é Inteligência Artificial. No entanto, os hackers mal intencionados também estão de olho nessa tecnologia. Isso porque o ChatGPT pode ser usado por cibercriminosos para gerar mensagens fraudulentas em segundos. Usando tecnologia alimentada por IA, os golpistas podem tirar proveito de potenciais vítimas que procuram amor online, por exemplo, enganando-as com mensagens convincentes.

ChatGPT pode ser usado para gerar mensagens fraudulentas

Com o rápido avanço da tecnologia de IA, os golpistas agora têm um poderoso aliado na forma de ferramentas populares de IA, como o ChatGPT. Essas ferramentas permitem que os golpistas criem qualquer coisa, desde bate-papos aparentemente inofensivos até cartas de amor elaboradas em questão de segundos. Isso certamente será uma grande isca para vítimas em potencial.

Imagem: Reseller News

Uma das táticas mais comuns usadas em golpes de namoro e romance online é a prática de “catfishing”, criando uma pessoa falsa para atrair vítimas inocentes para um relacionamento com a única intenção de extrair ganhos financeiros. O termo “catfishing” deriva do ato de usar um perfil falso para fisgar uma vítima.

Em um relatório de pesquisa recente intitulado “Modern Love” da McAfee (Via: GBHackers), mais de 5.000 pessoas de todo o mundo receberam uma amostra de carta de amor e foram solicitadas a determinar se ela foi escrita por uma pessoa ou gerada por inteligência artificial (IA). Um terço dos entrevistados (33%) acreditava que foi escrito por uma pessoa, enquanto 31% acreditam que foi escrito por uma IA.

Enquanto os 36% restantes dos participantes não conseguiram determinar se a carta foi escrita por um humano ou por uma máquina. O estudo teve como objetivo investigar até que ponto o conteúdo gerado por IA é percebido como autêntico e genuíno no contexto de relacionamentos românticos.

Análise de dados de interação do usuário

Uma pesquisa recente revelou que a maioria das pessoas (66%) foi contatada por um estranho por meio de mídia social ou SMS e, posteriormente, começou a conversar com eles. Facebook e Facebook Messenger (39%) e Instagram e mensagens diretas do Instagram (33%) foram citados como as plataformas mais comuns usadas por estranhos para iniciar uma conversa.

Infelizmente, muitas dessas interações acabaram levando a solicitações de transferências de dinheiro, com 55% dos entrevistados relatando ter sido solicitados a transferir dinheiro por um estranho. Embora a maioria dessas solicitações (34%) fosse inferior a US$ 500 (quase R$ 2.600,00), um número significativo (20%) envolvia valores superiores a US$ 10.000 (quase R$ 52 mil). Mais preocupante, 9% dos entrevistados foram solicitados a fornecer seu número de identificação fiscal ou governamental, enquanto 8% foram solicitados a compartilhar suas senhas de contas para mídias sociais, e-mail ou serviços bancários.

Com o ChatGPT em funcionamento e “à disposição” dos cibercriminosos, iludir vítimas na web pode ser ainda mais facilitado, com mensagens personalizadas, desenvolvidas pela IA. Mas, mecanismos de segurança que inibam isso devem ser criados à medida que a IA se desenvolve.

Mesmo antes do ChatGPT, os cibercriminosos já se aproveitavam de qualquer tecnologia que pudessem para seus golpes. Então, talvez precisemos acreditar mais no desenvolvimento dessa ferramenta para uso consciente e para coisas boas. Os hackers poderão até utilizar tecnologias como o ChatGPT para desenvolver mensagens fraudulentas para eles, mas, se você estiver preparado para isso, conseguirá identificar o golpe.

Share This Article
Follow:
Jardeson é Mestre em Tecnologia Agroalimentar e Licenciado em Ciências Agrária pela Universidade Federal da Paraíba. Entusiasta no mundo tecnológico, gosta de arquitetura e design gráfico. Economia, tecnologia e atualidade são focos de suas leituras diárias. Acredita que seu dia pode ser salvo por um vídeo engraçado.
Sair da versão mobile