Inteligência Artificial

Mais de 57 grupos hackers usam IA para ataques cibernéticos

Grupos hackers ligados a China, Irã, Coreia do Norte e Rússia utilizam IA para aprimorar ataques cibernéticos, segundo o Google. O uso inclui engenharia social, phishing, desenvolvimento de malware e evasão de detecção.

malware IA

Um novo relatório do Google Threat Intelligence Group (GTIG) revelou que pelo menos 57 grupos de hackers ligados a governos de China, Irã, Coreia do Norte e Rússia estão usando inteligência artificial (IA) para fortalecer suas operações cibernéticas. A tecnologia está sendo empregada para pesquisa, solução de códigos e criação de conteúdo malicioso.

Hackers de Estado usam IA para potencializar ataques cibernéticos

imagem de hacker

Segundo o Google, grupos de Ameaça Persistente Avançada (APT) utilizam IA em diversas fases de ataques digitais, incluindo:

  • Desenvolvimento de malwares e cargas maliciosas.
  • Pesquisa de vulnerabilidades e exploração de falhas de segurança.
  • Engenharia social e campanhas de phishing.
  • Evasão de sistemas de segurança e persistência em redes comprometidas.

Os hackers iranianos, especificamente o grupo APT42, são os principais utilizadores do Gemini, ferramenta de IA do Google, para criar ataques direcionados a ONGs, jornalistas e organizações acadêmicas. Eles utilizam a IA para desenvolver técnicas de phishing sofisticadas e pesquisar alvos potenciais.

APTs chineses e a exploração de redes

Grupos de hackers da China têm utilizado IA para aprimorar táticas de infiltração, incluindo:

  • Movimentação lateral em redes comprometidas.
  • Elevação de privilégios para acesso restrito.
  • Exfiltração de dados sensíveis.
  • Evasão de detecção por ferramentas de segurança.

Já os hackers russos se concentram na reescrita de malwares para dificultar sua detecção, enquanto grupos norte-coreanos utilizam IA para analisar serviços de hospedagem e infraestrutura digital.

IA e ataques de engenharia social

A IA também tem sido usada para apoiar estratégias de infiltração, como:

  • Criação de cartas de apresentação falsas para vagas de emprego em empresas ocidentais.
  • Pesquisa de salários e descrições de cargo para se passar por candidatos reais.
  • Simulação de perfis falsos no LinkedIn e outras redes profissionais.

Além disso, estão surgindo modelos de IA clandestinos, como WormGPT, WolfGPT e FraudGPT, projetados para ataques como comprometimento de e-mails empresariais (BEC) e criação de páginas fraudulentas.

Google intensifica medidas de segurança

O Google afirmou que está reforçando suas defesas contra ameaças baseadas em IA e alertou para a necessidade de colaboração entre setor público e privado para fortalecer a segurança digital global. A big tech também destacou a importância de regulamentações eficazes para impedir o uso malicioso da IA por atores estatais e criminosos.