GitHub Copilot adiciona recursos que reforçam a segurança, tornando-o mais poderoso!

GitHub acusado de alterar código de saída do Copilot para evitar problemas de direitos autorais
github copilot

O GitHub atualizou o modelo AI do Copilot que traz ainda mais segurança e o deixa poderoso. O GitHub Copilot é um assistente de programação que gera recomendações de código-fonte e funções em tempo real no Visual Studio e essa atualização deixam as coisas ainda melhores para os usuários dessa ferramenta.

De acordo com o GitHub, o novo modelo de IA oferece sugestões de melhor qualidade em um tempo menor, melhorando ainda mais a eficiência dos desenvolvedores de software ao aumentar a taxa de aceitação. Isso reduzirá ainda mais o tempo de desenvolvimento, facilitando para as pessoas desenvolvedoras que utilizam a ferramenta.

Novo modelo de IA do GitHub Copilot o deixa ainda mais seguro e poderos

O Copilot apresentará um novo recurso chamado “Fill-In-the-Middle”, que usa uma biblioteca de sufixos de código conhecidos e deixa uma lacuna para a ferramenta de IA preencher, obtendo melhor relevância e coerência com o restante do código do projeto. Além disso, o GitHub atualizou o cliente do Copilot para reduzir sugestões indesejadas em 4,5% para melhorar as taxas gerais de aceitação de código.

De acordo com o diretor sênior de gerenciamento de produtos Shuyin Zhao, hoje, o GitHub Copilot está por trás de uma média de 46% do código de um desenvolvedor em todas as linguagens de programação. E, segundo ele, em Java, esse número salta para 61%.

github-copilot-adiciona-recursos-que-reforcam-a-seguranca-tornando-o-mais-poderoso

Sugestões mais seguras

Essa atualização do GitHub Copilot melhora a introdução de um novo sistema de filtragem de vulnerabilidade de segurança que ajudará a identificar e bloquear sugestões inseguras, como credenciais codificadas, injeções de caminho e injeções de SQL. Zhao diz que, como o Copilot executa modelos avançados de IA em poderosos recursos de computação, é incrivelmente rápido e pode até detectar padrões vulneráveis ??em fragmentos incompletos de código.

Ele aponta que, isso significa que padrões de codificação inseguros são rapidamente bloqueados e substituídos por sugestões alternativas. Além disso, a empresa diz que o Copilot pode gerar segredos como chaves, credenciais e senhas vistas nos dados de treinamento em novas strings. No entanto, eles não podem ser usados, pois são totalmente fictícios e serão bloqueados pelo novo sistema de filtragem.

Ao bloquear sugestões inseguras no editor em tempo real, o GitHub também pode fornecer alguma resistência contra ataques de conjuntos de dados envenenados com o objetivo de treinar secretamente assistentes de IA para fazer sugestões contendo cargas maliciosas. No momento, os LLMs do Copilot ainda estão sendo treinados para distinguir entre padrões de código vulneráveis e não vulneráveis. Assim, espera-se que o desempenho do modelo de IA nessa frente melhore gradualmente em um futuro próximo.

De qualquer forma, essa atualização do GitHub Copilot traz mais segurança para os usuários.