Cibersegurança emergente

IA transforma malwares e ameaça cibersegurança

A utilização de IA para gerar variantes de malware está desafiando sistemas de segurança, burlando detecções em 88% dos casos. Saiba como essa prática ameaça a cibersegurança global.

malware IA

Pesquisadores da Palo Alto Networks, por meio da Unidade 42, revelaram um alarmante avanço: o uso de modelos de linguagem (LLMs) para gerar mais de 10.000 variantes de malware em JavaScript, tornando-os quase indetectáveis. Essa abordagem explora a capacidade de reescrever ou ofuscar códigos maliciosos existentes, dificultando a identificação por sistemas de segurança baseados em aprendizado de máquina (ML).

IA eleva a ameaça na segurança cibernética

malware IA

Transformações avançadas e impactos

Os criminosos utilizam LLMs para realizar modificações naturais no código, como renomeação de variáveis, divisões de strings, inserção de códigos inúteis e reimplementações completas, mantendo a funcionalidade original. O resultado? Um malware com aparência inofensiva, que engana até 88% dos modelos de detecção, como o PhishingJS.

Além disso, esses malwares reescritos conseguem passar despercebidos em plataformas como o VirusTotal, representando uma evolução significativa em comparação às ferramentas tradicionais de ofuscação, como o obfuscator.io.

Ferramentas criminosas e riscos crescentes

Enquanto provedores de LLMs implementam barreiras para mitigar abusos, hackers já exploram ferramentas como o WormGPT para criar e-mails de phishing sofisticados e desenvolver novos malwares. Essa combinação de IA generativa e técnicas avançadas de ofuscação aumenta drasticamente o volume e a sofisticação de ameaças na internet.

Aplicações duplas e possíveis soluções

Por outro lado, as mesmas tecnologias podem ser usadas para o bem. Reescrever malwares de forma controlada pode gerar dados para treinar modelos de ML mais robustos, ajudando a mitigar esses avanços.

Novas frentes de ameaça

Além das variantes de malware, um estudo recente da North Carolina State University introduziu o TPUXtract, um ataque de canal lateral que explora sinais eletromagnéticos de TPUs da Google para roubar modelos de IA. Essa técnica captura hiperparâmetros e configurações essenciais, permitindo a recriação de arquiteturas de IA com 99,91% de precisão.

Embora o ataque necessite de acesso físico e equipamentos caros, ele representa um risco inegável à propriedade intelectual e pode ser usado para realizar ataques cibernéticos subsequentes.

Conclusão

A combinação de IA generativa e técnicas de ofuscação está elevando a complexidade dos desafios em segurança cibernética. É essencial que empresas invistam em estratégias inovadoras para identificar e combater essas ameaças em evolução constante.