O Google Cloud AI remove os rótulos de gênero da API Cloud Vision para evitar preconceitos

Imagem: Khari Johnson | Venture Beat.

O Google Cloud AI está removendo a capacidade de rotular as pessoas em imagens de acordo com o gênero (homem ou mulher) com sua API Cloud Vision. A rotulagem é usada para classificar imagens e treinar modelos de machine learning, mas o Google está removendo rótulos de gênero porque viola o princípio de Inteligência Artificial (IA) do Google para evitar a criação de sistemas tendenciosos.

Um porta-voz do Google disse ao site Venture Beat por e-mail:

Como o sexo de uma pessoa não pode ser inferido pela aparência, decidimos remover esses rótulos para alinhar com os princípios de inteligência artificial do Google, especificamente o Princípio nº 2: evitar criar ou reforçar preconceitos injustos. Depois de hoje, um rótulo sem gênero, como “pessoa”, será retornado pela Cloud Vision API.

Google Cloud AI remove rótulos de gênero

A API do Google Cloud Vision fornece visão computacional para os clientes detectarem objetos e rostos. O Google já bloqueou o uso de pronomes baseados em gênero em uma ferramenta de IA em 2018.

Atualmente, muitos sistemas de análise facial e reconhecimento facial no mercado preveem gênero, mas têm desafios em identificar pessoas que não estão em conformidade com as normas de gênero, pessoas que são transgêneros e mulheres de cor.

Em um estudo realizado no ano passado pela Universidade do Colorado, os pesquisadores descobriram que a IA da Amazon, Clarifai, Microsoft e outros mantinham taxas de precisão acima de 95% para homens e mulheres cisgêneros, mas identificavam homens trans como mulheres 38% das vezes. Ainda mais, pessoas sem identidade de gênero foram identificadas erroneamente 100% do tempo.

Escritório do Google em Detroit, Michigan, EUA. Foto: Raymond Boyd via Getty Images.

Um passo à frente do Google

O principal autor, Morgan Klaus Scheuerman, disse ao site Venture Beat que acredita que o Google está tentando se destacar dos concorrentes. A análise constatou que o Google não fornecia serviços de classificação por gênero, mas permitia rótulos de “homem” e “mulher”. Além disso, sistemas de empresas como a Microsoft podem rotular pessoas como garçonetes, mulher do ar ou mulher militar.

Ele disse ao site Venture Beat por telefone:

Basicamente discutimos como as decisões que estão sendo tomadas em todos os sistemas são inerentemente políticas. E nos casos em que você está classificando coisas sobre seres humanos, torna-se mais. Acho que devemos avaliar mais quais são as noções políticas disso. Estou muito empolgado com o fato de o Google levar isso a sério.

Nos últimos anos, pesquisadores como Joy Boulamwini, realizando auditorias do sistema, descobriram que os principais fornecedores de reconhecimento facial tendem a funcionar melhor em homens brancos e pior em mulheres de cor.

Assim, a falta de alto desempenho para todas as pessoas é a principal razão pela qual legisladores em legislaturas estaduais, cidades como São Francisco e o Senado dos EUA propuseram proibições ou moratórias ao uso de sistemas de reconhecimento facial.

Fonte: Venture Beat

Share This Article
Follow:
Profissional da área de manutenção e redes, astrônomo amador, eletrotécnico e apaixonado por TI desde o século passado.
Sair da versão mobile