O Google decidiu encerrar uma experiência controversa dentro do Google Search: a ferramenta “What People Suggest”, um recurso baseado em Inteligência Artificial que reunia e resumía conselhos publicados por usuários em fóruns online, especialmente no Reddit.
A funcionalidade foi criada como uma forma de mostrar rapidamente o que pessoas comuns sugeriam em discussões sobre sintomas, tratamentos ou dúvidas de saúde. Na prática, o sistema analisava tópicos públicos e gerava um resumo automático com base nos comentários mais frequentes.
Apesar da proposta aparentemente útil, a ideia de apresentar conselhos médicos do Reddit diretamente nos resultados de busca levantou preocupações importantes. Especialistas alertaram que transformar relatos de leigos em respostas geradas por Inteligência Artificial poderia induzir usuários ao erro, especialmente em temas sensíveis relacionados à saúde.
A decisão de remover o recurso ocorre em meio a um debate cada vez maior sobre o uso de IA em conteúdos classificados como YMYL (Your Money or Your Life), que envolvem áreas críticas como medicina, finanças e segurança.
O problema dos conselhos médicos resumidos por IA
A internet sempre foi um espaço onde pessoas compartilham experiências pessoais sobre saúde. Fóruns como o Reddit são conhecidos por reunir discussões sobre sintomas, tratamentos e experiências com medicamentos.
O problema surge quando essas conversas informais passam a ser interpretadas como recomendações confiáveis. Ao utilizar Inteligência Artificial para sintetizar essas discussões, o Google Search corria o risco de apresentar opiniões pessoais como se fossem orientações úteis ou amplamente aceitas.
Os chamados conselhos médicos do Reddit são baseados em experiências individuais. Um tratamento que funcionou para uma pessoa pode ser completamente inadequado para outra.
Quando uma IA resume dezenas de comentários e apresenta um resultado simplificado, o usuário pode interpretar aquela resposta como uma orientação válida para sua própria situação.
Isso cria um cenário delicado, no qual relatos anônimos acabam ganhando mais visibilidade e aparente credibilidade dentro do buscador.

Alucinações e falta de contexto
Outro desafio importante envolve o funcionamento de sistemas modernos de Inteligência Artificial generativa.
Essas tecnologias são capazes de identificar padrões em grandes volumes de texto e produzir resumos convincentes. No entanto, elas não possuem entendimento real do contexto médico de cada usuário.
Quando alguém pesquisa sintomas no Google Search, a IA não tem acesso a informações essenciais, como histórico de saúde, condições pré-existentes, idade ou possíveis interações medicamentosas.
Isso significa que qualquer recomendação derivada de comentários online pode ignorar fatores fundamentais para um diagnóstico ou tratamento adequado.
Além disso, modelos de Inteligência Artificial podem produzir respostas plausíveis mesmo quando os dados disponíveis são incompletos ou contraditórios. Esse fenômeno, conhecido como “alucinação”, pode gerar resumos imprecisos ou simplificações perigosas.
Em temas relacionados à saúde, essa limitação se torna especialmente preocupante.
A justificativa do Google e as críticas
De acordo com o Google, o encerramento da ferramenta “What People Suggest” faz parte de um processo comum de testes e ajustes dentro do Google Search.
A empresa frequentemente lança recursos experimentais para avaliar como os usuários interagem com novas formas de apresentar informações.
No entanto, analistas de tecnologia e especialistas em busca acreditam que a decisão também está relacionada às críticas crescentes sobre o uso de Inteligência Artificial em resultados sensíveis.
Nos últimos anos, iniciativas como os AI Overviews — resumos automáticos exibidos diretamente na página de resultados — geraram debates sobre precisão e confiabilidade.
Embora essas tecnologias tenham potencial para facilitar o acesso à informação, erros ou interpretações equivocadas podem gerar consequências sérias quando o tema envolve saúde.
Diante desse cenário, retirar um recurso que transformava discussões do Reddit em respostas resumidas parece uma decisão alinhada com uma estratégia mais cautelosa.
O impacto no ecossistema de busca
A remoção da ferramenta também revela algo importante sobre a evolução do Google Search.
Nos últimos anos, o buscador passou por uma transformação significativa com a integração de recursos de Inteligência Artificial. O objetivo é oferecer respostas mais rápidas e diretas para as perguntas dos usuários.
No entanto, essa mudança também trouxe novos desafios para o ecossistema de informação online.
Quando a IA assume o papel de resumir conteúdos, a qualidade das fontes utilizadas se torna ainda mais importante. Em temas sensíveis, como saúde, o buscador precisa garantir que as informações exibidas sejam confiáveis e contextualizadas.
Esse movimento reforça o peso de critérios como E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), utilizados pelo Google para avaliar a qualidade de conteúdos na web.
Para criadores de conteúdo, isso significa que materiais baseados em fontes confiáveis, especialistas e evidências continuam sendo fundamentais para manter visibilidade no buscador.
Conclusão: cautela ao usar IA em temas de saúde
O fim da ferramenta “What People Suggest” mostra que o uso de Inteligência Artificial em áreas sensíveis ainda exige cautela.
Embora a tecnologia seja poderosa para organizar e resumir informações, transformar discussões de fóruns como o Reddit em respostas rápidas sobre saúde pode gerar interpretações equivocadas.
Relatos pessoais não substituem orientação profissional, e qualquer tentativa de automatizar esse tipo de conteúdo precisa levar em conta riscos de desinformação.
Para usuários, a recomendação continua sendo a mesma: o Google Search pode ajudar a encontrar informações iniciais, mas diagnósticos e tratamentos devem sempre ser discutidos com profissionais de saúde.
Para o próprio Google, a remoção do recurso sugere um reconhecimento importante. Em temas que podem afetar diretamente a vida das pessoas, precisão e responsabilidade precisam vir antes da automação.
