“Pare com essa idiotice”: Linus detona proposta de “regras anti-IA” no Kernel Linux

Criador do Kernel diz que documentar regras contra "AI Slop" é inútil contra spammers.

Por
Emanuel Negromonte
Emanuel Negromonte é Jornalista, Mestre em Tecnologia da Informação e atualmente cursa a segunda graduação em Engenharia de Software. Com 14 anos de experiência escrevendo sobre...
3 min

Enquanto projetos grandes já estão formalizando regras para segurar a enxurrada de contribuições feitas com LLM, o Kernel Linux quase entrou nesse mesmo caminho. O contraste ficou explícito nesta semana: no LLVM, uma política “human in the loop” foi documentada; no Linux, quando alguém tentou puxar diretrizes similares para “tool-generated content”, Linus Torvalds respondeu curto e grosso.

No LLVM, a ideia foi cristalizada como human in the loop: você pode usar ferramentas, mas tem de revisar tudo, assumir autoria, conseguir defender o que enviou e não transformar mantenedores em revisores de “texto gerado” sem contexto. A política ainda mira agentes que atuam sozinhos e automatizações que publicam comentários sem um humano aprovando.

O conflito que acendeu o pavio no Linux

A discussão no linux-kernel começou como documentação. Mas a faísca real foi outra: a tentativa de tratar conteúdo gerado por IA como uma categoria especial que exigiria “regras” próprias.

  • Lorenzo Stoakes defendeu que LLMs não são “só mais uma ferramenta”, e que o Kernel não deveria agir como se estivesse imune ao problema.
  • Linus respondeu sem rodeios: “There is zero point in talking about AI slop.” E foi além: “So stop this idiocy.”
  • O motivo central: quem manda “AI slop” não vai rotular nada, não vai seguir guideline, não vai se auto-policiar porque uma doc pediu.

A lógica brutal: regra serve para quem já é “bom ator”

O argumento de Linus é pragmático e, para muita gente, desconfortável: documentação é para quem já joga limpo. Para “bad actors”, qualquer política vira teatro, “pointless posturing”. Na prática, tentar transformar documentação do Kernel em manifesto “anti-IA” só cria ruído, alimenta polarização (“sky is falling” versus “vai revolucionar tudo”) e não melhora segurança.

Ele empurra o tema de volta para o lugar que o Kernel entende bem: qualidade objetiva do patch. Se o código está certo, passa. Se está errado, não importa se veio de um humano, de um LLM, de um gerador de boilerplate ou de um café forte.

Bash
Human in the loop (conceito prático)

Ferramenta gera rascunho > Humano entende/revisa/testa > PR enviado
        (assistência)              (responsabilidade)          (review útil)

O veredito: “IA” não ganha status especial no Kernel

Linus quer um princípio simples: IA é ferramenta. O Kernel não vai virar um documento de postura. O filtro continua o mesmo, com ou sem buzzword: correção, clareza, testes, impacto e revisão.

E aí entra a pergunta incômoda: você concorda com a visão “mecânica” de Linus, ou acha perigoso não ter regra explícita quando o volume de patches e textos “fabricados” está crescendo? Eis a questão!

Compartilhe este artigo
Sair da versão mobile