Inteligência Artificial do Facebook classifica um vídeo de homens negros como “primatas”

Imagem: Gizchina

Parece que pisar na bola e ser politicamente incorreto é com o Facebook. Nem mesmo a Inteligência Artificial da empresa parece tão eficiente assim. O Facebook tevede vir a público para se desculpar por um incidente em que sua IA erroneamente rotulou um vídeo de homens negros com o título de “primatas”. Para a empresa, este foi um “erro inaceitável” e que garante que está examinando o que ocorreu para evitar que aconteça novamente. 

Conforme relatado pelo New York Times, os usuários que assistiram a um vídeo de 27 de junho postado pelo tablóide britânico Daily Mail receberam uma mensagem automática perguntando se queriam “continuar vendo vídeos sobre primatas”.

O Facebook desativou todo o recurso de recomendação de tópicos assim que percebeu o que estava acontecendo, disse um porta-voz em um e-mail para o The Verge no sábado.

Este foi claramente um erro inaceitável”, disse o porta-voz. A empresa está investigando a causa para evitar que o comportamento volte a acontecer, acrescentou o porta-voz. Como dissemos, embora tenhamos feito melhorias em nossa IA, sabemos que ela não é perfeita e temos mais progresso a fazer. Pedimos desculpas a qualquer pessoa que possa ter visto essas recomendações ofensivas.

Inteligência Artificial do Facebook classifica um vídeo de homens negros como “primatas”

Imagem: PortalCBNCampinas

O incidente é apenas o exemplo mais recente de ferramentas de inteligência artificial que mostram preconceito de gênero ou raça, com ferramentas de reconhecimento facial que apresentam um problema específico de identificação incorreta de pessoas de cor. Em 2015, o Google se desculpou depois que seu aplicativo Fotos marcou fotos de negros como “gorilas”. No ano passado, o Facebook disse que estava estudando se seus algoritmos treinados em IA – incluindo os do Instagram, de propriedade do Facebook – eram racialmente tendenciosos.

Em abril, a Comissão Federal de Comércio dos Estados Unidos advertiu que as ferramentas de IA que demonstraram preconceitos raciais e de gênero “preocupantes” podem violar as leis de proteção ao consumidor se forem usadas na tomada de decisões para crédito, moradia ou emprego. “Assuma a responsabilidade – ou esteja pronto para que a FTC faça isso por você”, escreveu a advogada de privacidade da FTC, Elisa Jillson, em uma postagem no site da agência.

Além disso, não é difícil surgirem denúncias de todos os lados de que o Facebook promove a desinformação, propagação de fake news e quase nenhuma providência para combater este tipo de coisa é feita pela empresa. Então, resta esperar o que de fato vai ocorrer neste caso explícito de preconceito.

Via The Verge

Share This Article
Follow:
Jornalista com pós graduações em Economia, Jornalismo Digital e Radiodifusão. Nas horas não muito vagas, professor, fotógrafo, apaixonado por rádio e natureza.
Sair da versão mobile