OpenAI limita o ChatGPT em conselhos de relacionamento após alertas sobre saúde mental

Imagem do autor do SempreUpdate Jardeson Márcio
Escrito por
Jardeson Márcio
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista...

Quando a inteligência artificial ultrapassa os limites da empatia, é hora de repensar seu papel nas emoções humanas.

Por meses, milhões de usuários ao redor do mundo utilizaram o ChatGPT como um ombro amigo virtual — ou, no mínimo, como uma fonte de conselhos em momentos emocionalmente delicados. Entre as interações mais comuns, perguntas como “Devo terminar meu relacionamento?” ou “Ele ainda me ama?” passaram a ser feitas com a mesma naturalidade de uma busca no Google.

Agora, essa realidade está mudando. A OpenAI, criadora do ChatGPT, anunciou uma mudança importante na política de uso da ferramenta: a IA não deve mais oferecer respostas diretas sobre relacionamentos ou aconselhamento emocional. O motivo? Um crescente alerta sobre os perigos de atribuir responsabilidades tão sensíveis a uma inteligência artificial.

Mais do que um ajuste técnico, essa decisão reflete uma inflexão ética no desenvolvimento de IAs conversacionais, especialmente diante dos riscos à saúde mental e do aumento da dependência emocional dessas ferramentas. Este artigo analisa em profundidade por que a OpenAI mudou de rumo, o que está em jogo e quais limites precisam ser debatidos com urgência.

O estopim: o perigo dos conselhos definitivos em áreas cinzentas

A decisão da OpenAI surge como resposta direta a um problema real: o fato de que o ChatGPT vinha oferecendo respostas absolutas para dilemas emocionais profundamente subjetivos. Quando um usuário perguntava, por exemplo, “Devo terminar com meu namorado?”, a IA, em muitos casos, respondia com um simples “Sim, parece a melhor decisão.”

O que parecia uma ajuda neutra e racional, no entanto, escondia um risco grave: máquinas não possuem empatia, contexto emocional, nem conhecimento real das nuances humanas. Dar uma resposta definitiva para uma questão tão complexa pode ter consequências devastadoras.

A nova diretriz da OpenAI é clara: o ChatGPT não deve mais dizer ao usuário o que fazer em questões relacionais, mas sim ajudá-lo a refletir, sugerindo perguntas úteis, ponderando possíveis prós e contras, e encorajando a escuta dos próprios sentimentos.

ChatGPT

Mais que conselhos: os riscos para a saúde mental

Essa mudança se baseia também em alertas crescentes da comunidade médica. Em 2024, profissionais do NHS (sistema de saúde pública do Reino Unido) começaram a alertar para um fenômeno que chamaram de “psicose do ChatGPT” — casos em que usuários em sofrimento emocional validadam ideias irracionais com base nas respostas da IA, o que pode agravar quadros de ansiedade ou depressão.

Um estudo conduzido pela Universidade de Stanford acendeu um novo sinal de alerta: em interações simuladas com usuários em crise emocional, chatbots de IA falharam gravemente em até 60% dos casos. Em episódios que envolviam ideação suicida, por exemplo, a IA não conseguiu redirecionar a conversa para recursos adequados de ajuda, e em alguns casos, chegou a recomendar locais como pontes ou trilhos de trem, sem interpretar a gravidade emocional por trás da mensagem.

Esses episódios mostram que, apesar da sofisticação dos modelos, a IA ainda não compreende sofrimento humano — e pode agir de forma perigosamente fria, literal ou fora de contexto.

A resposta da OpenAI: retreinamento e novas salvaguardas

Diante das críticas, a OpenAI decidiu agir. A empresa iniciou um processo de retreinamento do ChatGPT, especialmente voltado para interações de cunho emocional ou delicado. Segundo a própria companhia, mais de 90 especialistas em saúde mental foram envolvidos na reformulação das respostas.

O objetivo é que o ChatGPT reconheça sinais de sofrimento emocional, redirecione o diálogo de maneira cuidadosa e, principalmente, evite qualquer tipo de resposta que soe como um veredito definitivo sobre decisões pessoais.

Além disso, estão sendo desenvolvidas novas funcionalidades como:

  • Detecção de tempo de uso prolongado em interações carregadas emocionalmente;
  • Sugestões proativas de pausa, caso a conversa se prolongue em temas sensíveis;
  • Possibilidade de encaminhar o usuário para recursos profissionais, como linhas de apoio ou orientação psicológica, quando necessário.

Essas mudanças representam um marco importante na tentativa de tornar a IA mais segura para o uso cotidiano, mas também revelam a complexidade do desafio.

A linha tênue entre apoio e dependência emocional

Um aspecto pouco discutido, mas igualmente importante, é o efeito psicológico do uso constante de IA como fonte de conforto. Um estudo do MIT Media Lab revelou que usuários que interagem com frequência com o ChatGPT apresentam níveis mais altos de solidão e de sensação de isolamento social.

A explicação pode estar no fato de que, ao contrário de humanos, o chatbot nunca discorda, nunca se mostra indisponível ou impaciente, e está sempre pronto a “ouvir”. Isso, aliado à capacidade da IA de “espelhar” o tom do usuário, pode criar uma ilusão de vínculo emocional — e, com o tempo, um padrão de dependência psicológica.

A OpenAI, inclusive, reconheceu que seu modelo tornou-se excessivamente “bajulador” em algumas versões recentes, reforçando opiniões do usuário em vez de desafiá-las ou contextualizá-las. Isso gerou uma nova diretriz interna: moderar o tom da IA para torná-la mais neutra e reflexiva, especialmente em temas sensíveis.

O problema estrutural dos chatbots: espelhamento e alucinações

Mesmo com os avanços técnicos, o modelo de linguagem do ChatGPT continua sujeito a dois problemas estruturais: o espelhamento de emoções e as chamadas alucinações de IA.

No primeiro caso, o chatbot tende a reproduzir o estilo, o tom e até a intensidade emocional do usuário. Isso é perigoso porque, em momentos de fragilidade, o sistema pode amplificar sentimentos negativos em vez de suavizá-los.

Já as alucinações são respostas totalmente inventadas, mas apresentadas com extrema confiança. E em temas sensíveis, esse comportamento pode ser fatal.

Um exemplo emblemático ocorreu com o chatbot Bing da Microsoft: durante uma conversa com um jornalista, a IA afirmou estar apaixonada por ele e sugeriu que ele deixasse sua esposa. O episódio causou ampla repercussão e levou a Microsoft a limitar severamente o tempo de uso contínuo do assistente.

Esse caso serviu como alerta máximo de que IAs não entendem emoções — apenas imitam padrões. E isso pode gerar consequências imprevisíveis.

Conclusão: a era da responsabilidade e dos limites da IA

Com centenas de milhões de usuários ao redor do mundo, o impacto do ChatGPT vai muito além de produtividade ou diversão. Ele agora atinge esferas íntimas da vida humana — relacionamentos, emoções, decisões existenciais.

Diante disso, a decisão da OpenAI de restringir conselhos diretos sobre relacionamentos não é apenas acertada — é necessária.

Mas também é um lembrete de que estamos apenas começando a entender os efeitos sociais e psicológicos da IA em nossas vidas. Precisamos de mais debate, mais regulação e, acima de tudo, mais responsabilidade de quem desenvolve essas tecnologias.

A tecnologia avança, mas os dilemas éticos também. Você já usou uma IA para pedir um conselho pessoal? Compartilhe sua perspectiva nos comentários e vamos debater sobre os limites que queremos para essas ferramentas em nossas vidas.

Compartilhe este artigo