Projeto Mesa define regras para uso de IA e debate proibição total de código gerado artificialmente

Escrito por
Emanuel Negromonte
Emanuel Negromonte é Jornalista, Mestre em Tecnologia da Informação e atualmente cursa a segunda graduação em Engenharia de Software. Com 14 anos de experiência escrevendo sobre...

Responsabilidade humana no centro; o Mesa atualiza diretrizes e a comunidade discute banir código gerado por IA.

O Mesa atualizou suas diretrizes de contribuição — e, com isso, abriu uma conversa que vai muito além de formatação de commits e prefixos de MR. A novidade mais visível é uma regra cristalina sobre o papel de ferramentas de IA: independentemente do editor, assistente ou gerador que você use, você é o responsável pelo código. A página “Submitting Patches” agora explicita que o(a) autor(a) deve entender o que está mudando, justificar a alteração e garantir compatibilidade com a MIT license do projeto. Ferramentas ajudam; entendimento não é terceirizável.

Essa mudança vem na esteira de um MR de documentação (“docs: Add more details about the contribution process”, por Timur Kristóf), parte de uma leva recente de ajustes que reforçam expectativas e boas práticas na colaboração via GitLab. Em outras palavras: padronizar o básico para liberar energia coletiva para o que importa — arquitetura, drivers, regressões —, enquanto pinta um contorno claro para o uso de AI no fluxo do projeto.

“Você é o responsável”: a nova regra do Mesa para IA

iGdNwZ0s inteligencia artificial generativa
Projeto Mesa define regras para uso de IA e debate proibição total de código gerado artificialmente 3

O coração da atualização é simples e direto: o(a) contribuidor(a) responde pela mudança, venha ela de si, de um assistente de codificação ou de outra fonte. Isso inclui assegurar que o patch pode ser submetido sob a licença do Mesa e que a commit message explique o porquê do change. O texto também lembra que nenhuma ferramenta substitui “entendimento real” do código — e que usar IA não dá privilégios extras nem reduz expectativas na revisão. É a forma Mesa de dizer: “copilot não assina Reviewed-by”.

Na prática, isso coloca a responsabilidade e a ética profissional no centro. Quer tentar um autocompletar mais esperto? Use. Vai experimentar um gerador que rascunha uma função? Ok — desde que você entenda cada linha, assuma eventuais bugs e arque com o ônus de explicar decisões e implicações. É como usar um osciloscópio novo no laboratório: ótimo, desde que você saiba ler o traço.

O debate na comunidade: proibir ou não proibir?

A atualização “não polêmica” abriu uma discussão polêmica: deveria o Mesa banir contribuições geradas por IA? Desenvolvedores de peso — gente que assina drivers e toma decisões difíceis no dia a dia — verbalizaram posições diversas. Houve quem defendesse banimento total por prudência; houve quem preferisse focar na responsabilidade individual (e num eventual parecer jurídico sobre treinamento e licenças); houve ainda quem pedisse nuance: não é o mesmo caso completar o nome de um struct e despejar um arquivo inteiro “feito pela IA”.

Esse ponto da nuance, trazido pelo autor do MR, é crucial: o ecossistema já embutiu “IA” em editores e IDEs de forma quase invisível. Tratar autocompletar como se fosse o mesmo que geração integral de código seria desproporcional. O que a diretriz aprovada faz, portanto, é estabilizar o mínimo: responsabilidade humana, entendimento do patch e licenciamento correto — enquanto a discussão maior (banir, restringir, exigir disclosure?) segue para um possível MR específico, com escopo claro para consenso entre desenvolvedores.

Paralelos no ecossistema: Gentoo e curl mostram dois caminhos

Esse debate não acontece no vácuo. Em 2024, o Gentoo cravou uma política explícita: banimento de conteúdo gerado com ferramentas de NLP/LLM nos repositórios oficiais — com três pilares de justificativa que também ecoaram no Mesa: copyright (zona cinzenta regulatória e risco de contaminação de licenças), qualidade (texto “plausível, mas sem sentido”) e ética (desde uso de energia/água até o incentivo a spam/scam). É uma escolha consciente por reduzir risco jurídico e custo de revisão.

Já o projeto curl adotou um caminho mais restritivo-com-disclosure. Em 2025, eles formalizaram diretrizes de uso de IA no arquivo de contribuição e, especificamente para relatos de segurança, passaram a exigir declaração explícita de uso de IA, com a recomendação clara: verifique tudo antes de submeter. A filosofia é pragmática: o problema não é a ferramenta em si, mas o custo imposto quando relatórios ou patches “alucinam” e drenam horas de triagem.

Colocando lado a lado, temos duas estratégias que podem inspirar a tal “Mesa AI policy”: (1) proibir e ganhar previsibilidade (ao preço de bloquear casos legítimos); (2) permitir com responsabilidade, pedindo disclosure e cravando que a revisão julga o que está no diff, não a aura tecnológica de quem o produziu. Não existe bala de prata: cada comunidade calibra conforme seu risco, cultura e banda de revisão.

E agora, qual é o norte para quem contribui?

Para quem envia patches hoje, o recado é claro e acionável:

  • Entenda seu código e explique por que ele melhora o projeto.
  • Garanta a compatibilidade de licença (o Mesa usa MIT) e evite qualquer fonte “contaminada”.
  • Use IA como ferramenta, não como muleta — e esteja pronto(a) para defender cada linha na revisão.

No horizonte, a comunidade ainda deve decidir se e como formalizará restrições adicionais (banimento, disclosure obrigatório, escopos específicos). Mas, enquanto a conversa amadurece, a diretriz já landed cumpre bem seu papel: protege o ethos de código aberto do Mesa sem demonizar ferramentas — e lembra que, no fim do dia, quem assina o patch é gente.

Compartilhe este artigo