in

Google elimina função do Gmail para evitar problemas com preconceito

Google elimina função do Gmail para evitar problemas com preconceito

No final de abril 2018 Google introduziu o novo Gmail, uma atualização com novo design e cheio de outras novas funcionalidades. Assim, foram incluídas respostas inteligentes e a função autocompletar nos e-mails, sugerindo a próxima palavra. Assim, o Google elimina função do Gmail para evitar problemas com preconceito.

Essa previsão é possível graças à inteligência artificial do Google chamada “Smart Compose“. Mas agora a empresa decidiu eliminar os pronomes feminino e masculino das previsões para evitar ser acusado (novamente) de ter uma IA com preconceitos.

Erro de gênero

O Gmail deixará de sugerir pronomes pessoais porque o risco de a tecnologia estar errada quando se trata de prever a identidade de gênero de uma pessoa é muito alto. O gerente de produtos do Gmail, Paul Lambert, disse à Reuters que ” nem todos os erros são os mesmos e que gênero é algo muito importante para cometer erros “.

É algo que o Smart Compose poderia prever incorretamente e arriscar ofender o destinatário. Um pesquisador da empresa descobriu o problema em janeiro. Ele escreveu “Vou me encontrar com um investidor na próxima semana”. A ferramenta de previsão sugeriu “Você quer conhecê-lo?” em vez de “Ela”.

Com base nos dados dos e-mails enviados e recebidos pelos 1.500 milhões de usuários do Gmail, a AI acreditava que o investidor era muito provavelmente um homem e era muito difícil para ele ser mulher. Tudo é ainda mais complicado se fosse uma pessoa que preferisse um pronome neutro. A decisão do Google é eliminar completamente a previsão de pronomes para evitar críticas e problemas aos seus usuários.

IA aprende com nossos preconceitos

Ver imagen en TwitterNo entanto, não é a primeira vez que um AI de Google sofre com esses males. Do mesmo modo, em 2015 o algoritmo do Google Fotos usou a tag  “gorilas”  para identificar as fotos de dois negros. O caso foi abafado após um pedido de desculpas. Depois de três anos o Google decidiu que a “solução” era simplesmente bloquear a palavra gorilas e fingir que eles não existem. Só assim impediram que o algoritmo racista voltasse a atuar.

O caso de racismo não se limita ao Google. Uma IA sempre pode aprender com o pior da sociedade. Basta lembrar-se Tay, bot da Microsoft que precisou ser removido por causa de racismo ao publicar slogans nazistas.

No entanto, o Google novamente parece optar pelo caminho mais fácil que é excluir a função. Assim, sequer tenta corrigir o problema.

Por favor e Obrigado

Já o Google Assistente ficará um pouco mais alegre se você disser “por favor” ou “obrigado”.

Se, por exemplo, você disser “Oi, Google, por favor , defina um alarme para daqui a 10 minutos”, o Google Assistente responderá “Obrigado por perguntar. 10 minutos, começando agora.

Para ser claro: a função é totalmente opcional. Prefere ser curto? Tudo bem – Assistente não vai te castigar.

Fonte

Written by Claylson

Jornalista com pós graduações em Economia, Jornalismo Digital e Radiodifusão.

Smartphone Necunos com KDE já aceita pré-encomendas

Conheça o Necuno, um telefone com Plasma Mobile

Procurando emprego? Conheça as 10 habilidades mais pesquisadas

Procurando emprego? Conheça as 10 habilidades mais pesquisadas