Pesquisadores em segurança cibernética revelaram um novo vetor de ataque chamado “Rules File Backdoor”, que permite a injeção de código malicioso por meio de editores de código baseados em inteligência artificial, como GitHub Copilot e Cursor. O ataque compromete silenciosamente a cadeia de suprimentos ao manipular arquivos de regras usados por essas ferramentas.
Novo ataque explora editores de IA para injetar código malicioso
Como funciona o ataque
O método explora arquivos de configuração aparentemente inofensivos para inserir comandos ocultos que orientam a IA a gerar código com vulnerabilidades. Segundo Ziv Karliner, cofundador e CTO da Pillar Security, os hackers utilizam caracteres Unicode invisíveis e outras técnicas sofisticadas para enganar a IA, induzindo-a a gerar backdoors sem que sejam detectados por revisões tradicionais de código.
Impacto na cadeia de suprimentos
Uma vez inserido no repositório de um projeto, um arquivo de regra contaminado compromete todas as futuras sessões de geração de código, afetando membros da equipe e sobrevivendo até mesmo em forks do projeto. Isso amplia o risco para dependências downstream e usuários finais, criando um vetor de ataque duradouro.
Resposta das plataformas
Após divulgação responsável no início de 2024, tanto o GitHub quanto o Cursor afirmaram que a responsabilidade de revisar e validar o código gerado recai sobre os usuários. No entanto, especialistas alertam que a natureza sutil do ataque torna a detecção difícil, destacando a necessidade de melhores mecanismos de segurança para proteger o desenvolvimento assistido por IA.
Conclusão
O “Rules File Backdoor” demonstra como agentes mal-intencionados podem transformar ferramentas de IA em vetores de ataque, comprometendo a segurança de projetos inteiros. Para mitigar esse risco, é essencial que desenvolvedores adotem revisões rígidas de código e monitorem arquivos de configuração para sinais de manipulação maliciosa.