Ataque cibernético

Novo ataque 'Rules File Backdoor' compromete editores de código com IA

O ataque "Rules File Backdoor" explora editores de código com IA, como GitHub Copilot e Cursor, para injetar código malicioso. Hackers manipulam arquivos de regras para comprometer projetos, afetando a cadeia de suprimentos e expondo usuários a riscos.

Imagem de mãos
Imagem: Gizchina

Pesquisadores em segurança cibernética revelaram um novo vetor de ataque chamado “Rules File Backdoor”, que permite a injeção de código malicioso por meio de editores de código baseados em inteligência artificial, como GitHub Copilot e Cursor. O ataque compromete silenciosamente a cadeia de suprimentos ao manipular arquivos de regras usados por essas ferramentas.

Novo ataque explora editores de IA para injetar código malicioso

imagem de hacker

Como funciona o ataque

O método explora arquivos de configuração aparentemente inofensivos para inserir comandos ocultos que orientam a IA a gerar código com vulnerabilidades. Segundo Ziv Karliner, cofundador e CTO da Pillar Security, os hackers utilizam caracteres Unicode invisíveis e outras técnicas sofisticadas para enganar a IA, induzindo-a a gerar backdoors sem que sejam detectados por revisões tradicionais de código.

Impacto na cadeia de suprimentos

Uma vez inserido no repositório de um projeto, um arquivo de regra contaminado compromete todas as futuras sessões de geração de código, afetando membros da equipe e sobrevivendo até mesmo em forks do projeto. Isso amplia o risco para dependências downstream e usuários finais, criando um vetor de ataque duradouro.

Resposta das plataformas

Após divulgação responsável no início de 2024, tanto o GitHub quanto o Cursor afirmaram que a responsabilidade de revisar e validar o código gerado recai sobre os usuários. No entanto, especialistas alertam que a natureza sutil do ataque torna a detecção difícil, destacando a necessidade de melhores mecanismos de segurança para proteger o desenvolvimento assistido por IA.

Conclusão

O “Rules File Backdoor” demonstra como agentes mal-intencionados podem transformar ferramentas de IA em vetores de ataque, comprometendo a segurança de projetos inteiros. Para mitigar esse risco, é essencial que desenvolvedores adotem revisões rígidas de código e monitorem arquivos de configuração para sinais de manipulação maliciosa.