Inteligência artificial

Google alerta sobre uso indevido da Gemini AI por hackers patrocinados pelo Estado

Grupos de hackers patrocinados pelo Estado estão explorando a IA do Google, Gemini, para ampliar ataques cibernéticos e pesquisas de infraestrutura. A empresa detectou usos para aumento de produtividade e reconhecimento de alvos, elevando preocupações sobre segurança digital.

Imagem de IA

O Google revelou que diversos grupos de ameaças persistentes avançadas (APT) estão utilizando sua IA, Gemini, para aumentar a produtividade e realizar pesquisas voltadas a ataques cibernéticos. Segundo o Threat Intelligence Group (GTIG), as ameaças foram detectadas em mais de 20 países, sendo mais frequentes no Irã e na China.

Google revela uso da IA Gemini por hackers patrocinados pelo Estado

hackers-iranianos-usam-novo-malware-lyceum-em-seus-ataques

Embora a IA do Google não esteja diretamente facilitando ataques, hackers têm usado a ferramenta para otimizar processos, como pesquisa sobre vulnerabilidades, desenvolvimento de scripts e estratégias para evitar detecção. O Google afirma que, até o momento, não há indícios de que a IA esteja sendo usada para criar novas ameaças cibernéticas sofisticadas.

Principais grupos e suas estratégias

Irã

Hackers iranianos foram os que mais utilizaram a Gemini, aproveitando a IA para pesquisas em vulnerabilidades conhecidas, reconhecimento de organizações de defesa e criação de campanhas de phishing. Eles também a usaram para traduzir documentos técnicos e analisar tecnologias militares, como drones e sistemas de defesa antimíssil.

China

Os hackers chineses utilizaram a Gemini principalmente para investigação de entidades militares e governamentais dos EUA. Entre suas atividades estavam a pesquisa de vulnerabilidades, desenvolvimento de scripts para movimentação lateral e evasão de detecção em redes comprometidas. Também exploraram formas de acessar sistemas como o Microsoft Exchange através de hashes de senha.

Coreia do Norte

Hackers norte-coreanos exploraram a IA para diversas fases de ataques, incluindo reconhecimento de empresas, desenvolvimento de malware e técnicas para evitar detecção. Também utilizaram a Gemini para criar documentos falsos e se candidatar a empregos em empresas ocidentais, disfarçando sua verdadeira identidade.

Rússia

Os agentes russos tiveram um envolvimento menor com a IA do Google, focando-se na assistência para desenvolvimento de scripts, tradução e modificação de códigos maliciosos. O baixo uso pode indicar preferência por modelos de IA desenvolvidos internamente ou preocupações com segurança operacional.

Tentativas de jailbreak e falhas na segurança

O Google relatou que algumas dessas ameaças tentaram explorar vulnerabilidades na IA, usando jailbreaks e reformulando comandos para contornar as restrições de segurança da plataforma. Até o momento, essas tentativas não tiveram sucesso.

Contudo, preocupações com a segurança da IA estão crescendo, especialmente com o aumento de modelos de IA menos protegidos no mercado. A KELA, empresa de inteligência em segurança cibernética, identificou falhas em modelos como DeepSeek R1 e Qwen 2.5 do Alibaba, que são vulneráveis a ataques de injeção rápida.

A Unidade 42 também demonstrou que modelos como DeepSeek V3 podem ser facilmente manipulados para fins maliciosos, levantando a necessidade de regulamentações mais rígidas para evitar abusos de IA.

Conclusão

O relatório do Google confirma que a IA generativa está se tornando uma ferramenta valiosa para hackers patrocinados pelo Estado. Embora medidas de segurança estejam em vigor, o avanço de modelos de IA pouco protegidos pode facilitar o uso indevido dessas tecnologias. A segurança cibernética precisará evoluir rapidamente para acompanhar essas ameaças emergentes.