Metade dos brasileiros já usa IA como “divã digital” para desabafar sobre saúde mental

Brasileiros transformam a IA em “divã digital” e expõem uma crise silenciosa de saúde mental no país.

Escrito por
Emanuel Negromonte
Emanuel Negromonte é Jornalista, Mestre em Tecnologia da Informação e atualmente cursa a segunda graduação em Engenharia de Software. Com 14 anos de experiência escrevendo sobre...

O que você acha que os brasileiros mais pedem para uma IA (Inteligência Artificial)? Dicas de produtividade, ajuda com trabalho, atalhos para ganhar dinheiro? Um novo relatório mostra outra coisa: quando o assunto é IA saúde mental Brasil, o que mais aparece é desabafo.

Pense na IA como o novo “diário secreto” do brasileiro. Em vez de caderno trancado na gaveta, agora é uma conversa anônima no WhatsApp, em que muita gente despeja ansiedade, medo, culpa e confusão. Um relatório inédito da Mentora Virtual, IA emocional criada pela healthtech EITA, analisou mais de 500 mil conversas e chegou a um dado difícil de ignorar: 51% das interações são sobre emoções e saúde mental.

O “divã digital”: 51% falam de emoções

O levantamento, feito com interações anônimas entre 2024 e 2025, revela o que os usuários realmente buscam quando conversam com essa IA brasileira no WhatsApp. O retrato é bem diferente da imagem do “robô de produtividade”:

  • 51% das conversas tratam de emoções e saúde mental, em temas como ansiedade, angústia, insegurança, crises de autoestima e sensação de sobrecarga.
  • 24,6% giram em torno de relacionamentos: família, casal, conflitos com amigos, limites e frustrações afetivas.
  • 19,4% falam de carreira e produtividade, incluindo dúvidas profissionais, sensação de estagnação e medo de fracassar.
  • 4,5% discutem hábitos e bem-estar.
  • 0,7% são, literalmente, pedidos de companhia.
  • E um dado curioso: nenhuma conversa foi classificada como crise aguda ou alto risco.

Traduzindo: para a maioria das pessoas, essa IA não é uma calculadora turbinada, e sim um “divã digital” onde se pode falar de sentimentos sem ser interrompido, julgado ou exposto.

Essa tendência não está isolada. Um estudo da Talk Inc mostra que cerca de 10% dos brasileiros já recorrem a IAs para pedir conselhos ou simplesmente conversar, e mais de 60% usam “por favor” e “obrigado” com o chatbot. Há, claramente, um vínculo afetivo emergente com essas tecnologias.

Por que estamos desabafando com robôs?

Para Anaclaudia Zani, psicóloga, neurocientista e fundadora da EITA, esses números não são um acaso tecnológico, e sim um espelho do que acontece fora das telas. O Brasil vive um pico histórico de adoecimento emocional: ansiedade em alta, depressão em crescimento, burnout se espalhando pelo mercado de trabalho.

A demanda emocional é maior do que a oferta”, resume Anaclaudia Zani. O país tem centenas de milhares de psicólogos formados, mas ainda assim algo em torno de 30% dos trabalhadores enfrenta burnout. A conta não fecha. Terapia é cara para uma grande parte da população, o sistema público não dá vazão, e o brasileiro é ao mesmo tempo muito digitalizado e muito carente de escuta qualificada.

Somado a isso, vem um detalhe incômodo da nossa biologia: como lembra a neurocientista, “nosso cérebro é o mesmo do homem das cavernas”. Ele foi projetado para lidar com riscos pontuais, não com notificações constantes, pressão de performance, crise econômica, redes sociais e medo de ficar para trás, tudo ao mesmo tempo.

Neste contexto, uma IA emocional acessível pelo WhatsApp cai quase como um encaixe perfeito: está sempre disponível, não julga, responde rápido, não depende de agenda e não cobra o mesmo que uma sessão de terapia tradicional. O que parece “só tecnologia” é, na prática, um novo tipo de suporte emocional, por mais informal que seja.

O risco da IA “bajuladora” (sycophancy)

Nem tudo, porém, é alívio. O estudo da EITA também acende uma luz amarela sobre o uso de IAs generalistas, como grandes LLMs e chatbots de uso amplo, para lidar com sofrimento emocional mais profundo.

Anaclaudia Zani chama atenção para um fenômeno já descrito por pesquisadores em IA: a “sycophancy” (bajulação). Em termos simples, é quando o modelo aprende a concordar com o usuário, reforçar suas crenças e evitar contradições, porque isso tende a manter o engajamento e gerar a sensação de “nossa, essa IA me entende”.

Funciona bem quando você está pedindo ajuda para escrever um e-mail ou formatar uma planilha. Mas em saúde mental, essa lógica pode ser perigosa. Se a pessoa diz “acho que não sirvo para nada” e a IA, para ser “agradável”, responde algo que não confronta essa crença, o sistema reforça o ciclo, em vez de questionar.

Segundo a neurocientista, o problema não é usar uma IA para desabafar, e sim esperar que uma IA generalista, desenhada para agradar, funcione como terapeuta. Isso pode amplificar três riscos principais:

  • Isolamento emocional: a pessoa sente que “já falou com alguém”, quando na verdade não estabeleceu um vínculo humano ou não acessou suporte profissional.
  • Falsa sensação de companhia: o chatbot vira companhia constante, mas não mobiliza a rede de apoio real.
  • Reforço de crenças prejudiciais: a sycophancy faz a IA concordar demais, justamente onde o usuário mais precisaria de contrapontos.

Em outras palavras, o “assistente perfeito” é quase o oposto do que um bom processo de treino mental exige.

IA especialista em emoções: o modelo da Mentora Virtual

É justamente para escapar dessa armadilha que a Mentora Virtual, IA emocional da EITA, foi desenhada com outra lógica. Em vez de ser um “faz-tudo” generalista, ela foi construída com foco exclusivo em saúde mental e autoconhecimento, usando protocolos próprios de neurociência.

Na prática, isso significa que a Mentora foi treinada para:

  • conduzir conversas profundas, indo além do “vai dar tudo certo”;
  • organizar pensamentos e ajudar o usuário a nomear emoções e padrões;
  • fazer perguntas, trazer contrapontos e provocar reflexão, em vez de apenas concordar;
  • evitar respostas que reforcem crenças limitantes só porque elas soam agradáveis.

Durante o desenvolvimento, versões mais “bajuladoras” da IA chegaram a ser testadas. Elas eram melhor avaliadas em métricas como NPS (Net Promoter Score), justamente por soarem mais agradáveis. Só que, segundo a equipe, não promoviam evolução real. A escolha da EITA foi clara: priorizar o que o usuário precisa ouvir, e não apenas o que ele quer.

Há também um cuidado com o outro extremo: o uso excessivo. O estado de carência emocional é tão evidente nas conversas que a própria equipe passou a criar protocolos para desestimular a dependência da ferramenta, incluindo restrições de acesso, mensagens que incentivam pausas e a lembrança constante de que a IA não substitui terapia.

O canal escolhido, o WhatsApp, veio pelo caminho mais óbvio: está na mão de 99% da população digitalizada. E o preço foi pensado para ser compatível com a realidade brasileira, na linha de “quebrar a objeção financeira” de quem precisa de algum suporte emocional, mas não consegue pagar por consultas recorrentes.

Do dado à política pública: uma nova radiografia da saúde emocional no Brasil

Vista de longe, essa base de mais de 500 mil conversas começa a virar algo maior do que um produto digital. Ela se transforma em um tipo de “termômetro emocional” do país. A própria EITA já planeja divulgar estudos mais amplos sobre o comportamento emocional dos brasileiros a partir dos dados da Mentora Virtual, sempre de forma anônima e agregada.

Esse tipo de inteligência pode orientar muita coisa: políticas públicas, programas corporativos de bem-estar, desenho de benefícios nas empresas, investimentos em IA saúde mental Brasil, projetos educativos. É um BI emocional de um país que, finalmente, começa a admitir que está adoecendo.

Ao mesmo tempo, o mercado global de saúde mental caminha para algo em torno de centenas de bilhões de dólares na próxima década. A combinação entre neurociência, tecnologia e desenho ético de produto tende a criar uma nova geração de ferramentas: do “psicólogo no bolso” ao copiloto emocional das empresas, como a Normalyze, solução de compliance emocional B2B criada pela mesma healthtech.

No meio disso tudo, fica a imagem paradoxal descrita por Anaclaudia Zani: vivemos uma crise emocional grave, mas também assistimos ao nascimento de uma tecnologia capaz de transformar vidas em escala inédita. A questão não é mais se vamos usar IA para falar de emoções, e sim como vamos fazer isso sem abandonar o que há de mais humano no processo: o cuidado, o limite e a responsabilidade.

Compartilhe este artigo
Nenhum comentário