O sucesso do NotebookLM colocou o Google novamente no centro das atenções no universo da inteligência artificial. A ferramenta ganhou destaque especialmente por suas Audio Overviews, resumos em áudio gerados por IA que impressionam pelo realismo, naturalidade e fluidez na entonação. No entanto, o que era inovação virou controvérsia após o surgimento da acusação envolvendo NotebookLM e uma voz supostamente roubada.
O ex-apresentador da NPR, David Greene, moveu um processo contra o Google alegando que a empresa teria utilizado sua voz como base de treinamento sem autorização. Segundo ele, os padrões vocais, a cadência e até vícios de linguagem teriam sido replicados nas vozes sintéticas da ferramenta. O Google nega as acusações e afirma ter contratado um ator profissional para o projeto.
O caso reacende um debate urgente sobre ética na IA generativa, identidade vocal e os limites legais do treinamento de modelos de síntese de voz.
Quem é David Greene e por que ele está processando o Google no caso NotebookLM voz roubada
David Greene é um jornalista experiente e ex-apresentador do programa Morning Edition, da NPR. Durante anos, sua voz tornou-se familiar para milhões de ouvintes nos Estados Unidos. Sua entonação pausada, ritmo equilibrado e estilo conversacional tornaram-se sua marca registrada.
Na ação judicial, Greene afirma que ao ouvir as Audio Overviews do NotebookLM, identificou padrões extremamente semelhantes aos seus. Ele aponta para características específicas, como pausas estratégicas, leve modulação emocional e uma cadência narrativa que, segundo ele, não seria coincidência.
O argumento central gira em torno da possibilidade de que seus programas transmitidos publicamente tenham sido utilizados para treinar o modelo de síntese vocal. Para Greene, isso configuraria uso não autorizado de sua identidade vocal, o que poderia violar direitos de personalidade e direitos autorais relacionados à performance.
O processo levanta uma questão delicada: até que ponto dados disponíveis publicamente podem ser utilizados para treinar sistemas de inteligência artificial sem consentimento explícito?

A defesa do Google: ator profissional ou treinamento de IA no caso NotebookLM voz roubada
O Google respondeu rapidamente às acusações. A empresa declarou que não utilizou a voz de David Greene para treinar o NotebookLM e que as vozes presentes nas Audio Overviews foram criadas com a participação de um ator profissional contratado especificamente para o projeto.
Segundo a defesa, os modelos de síntese de voz são desenvolvidos a partir de dados licenciados e gravações autorizadas, respeitando contratos formais e termos legais. O Google também sustenta que similaridades perceptivas não significam cópia direta, especialmente em um campo onde padrões narrativos jornalísticos tendem a seguir estruturas semelhantes.
A empresa enfatiza que a tecnologia de voz sintética evoluiu a ponto de produzir entonações naturais que podem lembrar locutores profissionais. Para o Google, a acusação de voz roubada não se sustenta tecnicamente.
Ainda assim, o debate permanece. Especialistas em direito digital apontam que o reconhecimento subjetivo de semelhança pode não ser suficiente juridicamente, mas a percepção pública pode influenciar fortemente a reputação da empresa.
O precedente de Scarlett Johansson e a OpenAI
O caso envolvendo o NotebookLM não é isolado. Em 2024, a atriz Scarlett Johansson entrou em conflito com a OpenAI após o lançamento de uma voz chamada “Sky” no ChatGPT, que muitos usuários consideraram semelhante à sua.
Embora a empresa tenha negado o uso da voz da atriz e afirmado ter contratado uma profissional diferente, a semelhança gerou forte repercussão pública. O episódio demonstrou como a linha entre inspiração e apropriação pode se tornar extremamente tênue quando falamos de síntese de voz por IA.
Esse precedente mostra que a indústria enfrenta um problema sistêmico. À medida que os modelos se tornam mais sofisticados, cresce a capacidade de reproduzir nuances humanas com impressionante fidelidade. O desafio passa a ser não apenas técnico, mas jurídico e ético.
Casos como o de Scarlett Johansson indicam que celebridades e profissionais da voz estão atentos ao uso de suas identidades em ambientes digitais automatizados.
O futuro do NotebookLM e a ética na síntese de voz
Independentemente do desfecho judicial, o caso NotebookLM coloca a discussão sobre identidade vocal em um novo patamar. Para usuários da ferramenta, a experiência continua prática e inovadora. As Audio Overviews facilitam o consumo de informações e ampliam a acessibilidade de conteúdos complexos.
Para a indústria de IA, no entanto, o episódio pode acelerar mudanças regulatórias. Especialistas defendem regras mais claras sobre:
• Consentimento explícito para uso de voz
• Transparência nos dados de treinamento
• Rotulagem clara de vozes sintéticas
• Proteção de direitos de personalidade
O avanço da IA generativa depende da confiança do público. Sem diretrizes claras, a percepção de uso indevido pode comprometer a adoção de tecnologias legítimas.
O caso também serve de alerta para podcasters, jornalistas e criadores de conteúdo. A voz, antes considerada apenas um instrumento de trabalho, pode se tornar um ativo digital protegido com mais rigor no futuro.
Para o Google, o desafio é equilibrar inovação com responsabilidade. O NotebookLM representa um salto significativo na forma como interagimos com informação, mas episódios como este mostram que o progresso tecnológico precisa caminhar junto com governança ética.
Enquanto o processo segue seu curso, a pergunta que fica é simples: quando uma voz sintética soa familiar demais, estamos diante de coincidência tecnológica ou de apropriação indevida?
