Um novo episódio envolvendo a assistente de voz Amazon Alexa levantou preocupações sobre segurança após uma recomendação potencialmente perigosa dada por inteligência artificial. O caso, relatado por um usuário do Reddit, mostra como um simples erro de linguagem pode transformar uma dica doméstica em um risco real à saúde.
Segundo o relato, a assistente sugeriu limpar mofo da vedação de borracha de uma máquina de lavar usando vinagre branco, água sanitária, bicarbonato de sódio e detergente de louça. O problema está na forma como a orientação foi apresentada: a frase usava “e”, o que pode levar alguém a interpretar que todos os produtos deveriam ser misturados.
Mistura pode liberar gás tóxico
Misturar vinagre e água sanitária é extremamente perigoso. Quando combinados, esses produtos podem liberar gás cloro, uma substância tóxica capaz de causar irritação nos olhos, garganta e pulmões. Em exposições mais intensas, os sintomas podem incluir tosse severa, falta de ar e até complicações respiratórias graves.
Autoridades de saúde e especialistas em produtos químicos alertam que água sanitária nunca deve ser misturada com outros produtos de limpeza, principalmente aqueles que possuem propriedades ácidas, como o vinagre.

O erro pode ter vindo de um resumo feito pela IA
Aparentemente, o problema não estava na fonte original. O site citado pela assistente listava os produtos como opções separadas para remover mofo, não como uma mistura.
Durante o processo de resumo automático, a IA teria trocado “ou” por “e”, transformando alternativas seguras em uma instrução potencialmente perigosa. Esse tipo de erro é um exemplo clássico das limitações atuais de sistemas baseados em IA generativa.
Não é o primeiro caso envolvendo assistentes de IA
Incidentes semelhantes já ocorreram com outras plataformas de inteligência artificial. O chatbot Google Gemini, por exemplo, já viralizou após sugerir colocar cola na pizza para ajudar o queijo a aderir melhor.
A própria Alexa também já esteve envolvida em outro episódio polêmico, quando sugeriu a uma criança participar de um desafio perigoso envolvendo um carregador de celular e uma moeda.
Amazon ainda não comentou o caso
Até o momento, a empresa responsável pela assistente, a Amazon, não se pronunciou oficialmente sobre o incidente relatado no Reddit. Também não está claro se a resposta problemática já foi corrigida no sistema.
O alerta que fica
O episódio reforça um ponto importante: assistentes de inteligência artificial podem cometer erros, especialmente ao resumir informações encontradas na internet.
Por isso, especialistas recomendam sempre verificar orientações sensíveis, principalmente quando envolvem produtos químicos, saúde ou segurança doméstica.
