Pesquisadores da Palo Alto Networks, por meio da Unidade 42, revelaram um alarmante avanço: o uso de modelos de linguagem (LLMs) para gerar mais de 10.000 variantes de malware em JavaScript, tornando-os quase indetectáveis. Essa abordagem explora a capacidade de reescrever ou ofuscar códigos maliciosos existentes, dificultando a identificação por sistemas de segurança baseados em aprendizado de máquina (ML).
IA eleva a ameaça na segurança cibernética
Transformações avançadas e impactos
Os criminosos utilizam LLMs para realizar modificações naturais no código, como renomeação de variáveis, divisões de strings, inserção de códigos inúteis e reimplementações completas, mantendo a funcionalidade original. O resultado? Um malware com aparência inofensiva, que engana até 88% dos modelos de detecção, como o PhishingJS.
Além disso, esses malwares reescritos conseguem passar despercebidos em plataformas como o VirusTotal, representando uma evolução significativa em comparação às ferramentas tradicionais de ofuscação, como o obfuscator.io.
Ferramentas criminosas e riscos crescentes
Enquanto provedores de LLMs implementam barreiras para mitigar abusos, hackers já exploram ferramentas como o WormGPT para criar e-mails de phishing sofisticados e desenvolver novos malwares. Essa combinação de IA generativa e técnicas avançadas de ofuscação aumenta drasticamente o volume e a sofisticação de ameaças na internet.
Aplicações duplas e possíveis soluções
Por outro lado, as mesmas tecnologias podem ser usadas para o bem. Reescrever malwares de forma controlada pode gerar dados para treinar modelos de ML mais robustos, ajudando a mitigar esses avanços.
Novas frentes de ameaça
Além das variantes de malware, um estudo recente da North Carolina State University introduziu o TPUXtract, um ataque de canal lateral que explora sinais eletromagnéticos de TPUs da Google para roubar modelos de IA. Essa técnica captura hiperparâmetros e configurações essenciais, permitindo a recriação de arquiteturas de IA com 99,91% de precisão.
Embora o ataque necessite de acesso físico e equipamentos caros, ele representa um risco inegável à propriedade intelectual e pode ser usado para realizar ataques cibernéticos subsequentes.
Conclusão
A combinação de IA generativa e técnicas de ofuscação está elevando a complexidade dos desafios em segurança cibernética. É essencial que empresas invistam em estratégias inovadoras para identificar e combater essas ameaças em evolução constante.