O atalho perigoso: por que usar o ChatGPT para programar é um risco de segurança para empresas, alerta especialista

Produtividade com IA sem vazamentos: governança, revisão humana e cofres de segredos.

Escrito por
Emanuel Negromonte
Emanuel Negromonte é Jornalista, Mestre em Tecnologia da Informação e atualmente cursa a segunda graduação em Engenharia de Software. Com 14 anos de experiência escrevendo sobre...

No Mês da Cibersegurança, o maior risco pode não ser um hacker, mas o seu próprio desenvolvedor bem-intencionado. Em um artigo recente, Bruno Kaique (CTO da Beephish) alerta: a busca por produtividade com IA (Inteligência Artificial) está abrindo um vetor de ataque silencioso — o vazamento de dados corporativos. A cena é comum: alguém copia um trecho de código-fonte com uma chave de API embutida e cola numa IA pública (ChatGPT, Bard, etc.) “só para revisar”. Parece inofensivo. Mas… e se essa informação sensível for tratada fora do seu domínio, armazenada para treinamento, vista por terceiros ou recuperável de maneiras que você não controla?

Analogia rápida: usar uma IA pública para revisar o código da sua empresa é como pedir a um estranho, numa praça movimentada, para revisar um contrato confidencial. Você pode até receber uma boa dica — mas não tem a menor ideia de quem ouviu, o que foi anotado ou onde esse material vai parar depois.

O caso real da Samsung

O alerta não é teórico. Em 2023, a Samsung baniu o uso de ferramentas de IA generativa por funcionários após incidentes em que dados internos — incluindo código-fonte — foram colados em um chatbot para “quebrar um galho”. O episódio virou referência mundial sobre governança de IA no ambiente de trabalho e mostrou que a tecnologia evolui mais rápido do que as políticas de uso seguro.

O risco do “código zumbi” e da falsa confiança

Vazar segredos é o risco mais óbvio — mas não o único. Kaique aponta efeitos colaterais que parecem produtividade, porém cobram juros altos:

  • “Código zumbi”: trechos que “rodam”, mas violam padrões internos, criam dependências frágeis e abrem brechas discretas.
  • Licenciamento e direitos autorais: uma GenAI pode sugerir snippets protegidos — quem assume a responsabilidade caso um cliente questione?
  • Produtividade ilusória: acelerar hoje para retrabalhar amanhã não é ganho; é passivo técnico acumulando.
  • Falsa confiança no algoritmo: a crença de que “a IA sabe mais do que eu” leva a aprovar mudanças sem revisão crítica — e o erro se propaga em escala.

A solução não é proibir — é governar

IA não é inimiga; é aliada. O problema não é a ferramenta, é a falta de governança. O caminho proposto por Bruno é claro: “IA assistida” (sempre com revisão humana) em vez de “IA first”. Em outras palavras, a IA sugere, o humano decide. E alguns princípios práticos ajudam a blindar o fluxo:

  • Segredo é segredo: nunca cole credenciais (chaves, tokens, senhas) em sistemas fora do seu controle. Use cofres digitais (vaults) e injeção de segredos no pipeline — não no código.
  • Tratativa de incidentes: expôs uma credencial? Gire imediatamente e registre como incidente.
  • Monitoramento contínuo: telemetria de anomalias em DevSecOps (commit, build, deploy) e detecção de segredo em repositórios.
  • Políticas claras: defina o que pode e o que não pode ser enviado a IAs públicas. Se necessário, estabeleça ambientes privados de IA, com privacy-by-design e retenção sob controle.
  • Maturidade da equipe: libere casos de uso de baixo risco primeiro (ex.: geração de testes, refatorações não sensíveis), avalie e só então avance.
  • Auditoria e trilha: registre consultas e decisões — o histórico é crucial para compliance e melhoria contínua.

O caminho prático para times de engenharia

Quer manter a tração sem abrir a guarda? Três movimentos táticos resolvem 80% do problema:

  1. Classifique dados por sensibilidade (código crítico, segredos, dados de cliente) e bloqueie o envio de qualquer item alto/altíssimo para IAs públicas.
  2. Padronize a “IA assistida”: prompts e checklists de revisão (segurança, performance, licenças), com dupla aprovação em mudanças de risco.
  3. Trate GenAI como componente de plataforma: idealmente, rode modelos privados (on-prem/cloud isolada) com controles de acesso, criptografia, logs e retenção definidos pelo seu time de Segurança & Compliance.

No fim, IA não substitui desenvolvedores — amplifica os bons. E quando o assunto é Cibersegurança, atalho mal calculado é a rota mais rápida para o desastre. A empresa que vencerá esse jogo não é a que proíbe ChatGPT — é a que o usa com governança, transforma segredos em segredos bem guardados e mantém o humano no comando.

Compartilhe este artigo
Nenhum comentário