O Google Cloud AI está removendo a capacidade de rotular as pessoas em imagens de acordo com o gênero (homem ou mulher) com sua API Cloud Vision. A rotulagem é usada para classificar imagens e treinar modelos de machine learning, mas o Google está removendo rótulos de gênero porque viola o princípio de Inteligência Artificial (IA) do Google para evitar a criação de sistemas tendenciosos.
Um porta-voz do Google disse ao site Venture Beat por e-mail:
Como o sexo de uma pessoa não pode ser inferido pela aparência, decidimos remover esses rótulos para alinhar com os princípios de inteligência artificial do Google, especificamente o Princípio nº 2: evitar criar ou reforçar preconceitos injustos. Depois de hoje, um rótulo sem gênero, como “pessoa”, será retornado pela Cloud Vision API.
Google Cloud AI remove rótulos de gênero
A API do Google Cloud Vision fornece visão computacional para os clientes detectarem objetos e rostos. O Google já bloqueou o uso de pronomes baseados em gênero em uma ferramenta de IA em 2018.
Atualmente, muitos sistemas de análise facial e reconhecimento facial no mercado preveem gênero, mas têm desafios em identificar pessoas que não estão em conformidade com as normas de gênero, pessoas que são transgêneros e mulheres de cor.
Em um estudo realizado no ano passado pela Universidade do Colorado, os pesquisadores descobriram que a IA da Amazon, Clarifai, Microsoft e outros mantinham taxas de precisão acima de 95% para homens e mulheres cisgêneros, mas identificavam homens trans como mulheres 38% das vezes. Ainda mais, pessoas sem identidade de gênero foram identificadas erroneamente 100% do tempo.
Um passo à frente do Google
O principal autor, Morgan Klaus Scheuerman, disse ao site Venture Beat que acredita que o Google está tentando se destacar dos concorrentes. A análise constatou que o Google não fornecia serviços de classificação por gênero, mas permitia rótulos de “homem” e “mulher”. Além disso, sistemas de empresas como a Microsoft podem rotular pessoas como garçonetes, mulher do ar ou mulher militar.
Ele disse ao site Venture Beat por telefone:
Basicamente discutimos como as decisões que estão sendo tomadas em todos os sistemas são inerentemente políticas. E nos casos em que você está classificando coisas sobre seres humanos, torna-se mais. Acho que devemos avaliar mais quais são as noções políticas disso. Estou muito empolgado com o fato de o Google levar isso a sério.
Nos últimos anos, pesquisadores como Joy Boulamwini, realizando auditorias do sistema, descobriram que os principais fornecedores de reconhecimento facial tendem a funcionar melhor em homens brancos e pior em mulheres de cor.
Assim, a falta de alto desempenho para todas as pessoas é a principal razão pela qual legisladores em legislaturas estaduais, cidades como São Francisco e o Senado dos EUA propuseram proibições ou moratórias ao uso de sistemas de reconhecimento facial.
Fonte: Venture Beat