Pesquisadores estão construindo uma ferramenta para proteger suas fotos dos sistemas de reconhecimento facial

Pesquisadores estão construindo uma ferramenta para proteger suas fotos dos sistemas de reconhecimento facial

Usar uma máscara pode desencadear algumas das mais avançadas tecnologias de reconhecimento facial atualmente em uso, mas mesmo isso pode mudar em breve com novas soluções que usam conjuntos de dados de fotos de pessoas com máscara disponíveis publicamente para treinar IAs.

Mesmo que o espaço de reconhecimento facial tenha visto algumas empresas se retirarem dele como resultado do aumento do escrutínio de órgãos reguladores e grupos de privacidade, pode-se argumentar que precisamos de nova legislação e alguma forma de proteção contra empresas que abusam dessa nova tecnologia.

Uma ferramenta para proteger suas fotos dos sistemas de reconhecimento facial

Por exemplo, a Clearview AI criou um banco de dados de reconhecimento facial com fotos de pessoas do Twitter, Facebook, Google e YouTube. A empresa não pediu permissão a nenhum dos usuários desses serviços e possui práticas de segurança ruins.

Pesquisadores estão construindo uma ferramenta para proteger suas fotos dos sistemas de reconhecimento facial
Usar uma máscara pode desencadear algumas das mais avançadas tecnologias de reconhecimento facial atualmente em uso.

Uma solução proposta por pesquisadores da Universidade de Chicago vem na forma de uma ferramenta de software que dá às pessoas a chance de proteger as imagens que carregam online de serem usadas sem a sua permissão.

A ferramenta Fawkes

A ferramenta Fawkes tira proveito do fato de que os modelos de machine learning precisam receber muitas imagens para identificar certas características distintivas de um indivíduo com algum grau de precisão. Portanto, o Fawkes faz pequenas alterações no nível de pixel de suas imagens que são imperceptíveis ao olho humano. Como resultado, podem “encobrir” seu rosto de forma eficaz, para que os modelos de machine learning não funcionem.

No entanto, o Fawkes não é perfeito. Por exemplo, a ferramenta não pode fazer nada sobre os modelos já construídos, como os usados por empresas como a Clearview AI.

Até o momento, o Fawkes está disponível no site do projeto e já foi baixado mais de 100.000 vezes. O professor Ben Zhao, que coordenou o desenvolvimento do Fawkes, diz que serviços como o Clearview AI ainda estão longe de ter um conjunto abrangente de imagens para todos na internet.

A equipe de Zhao gostaria de ver empresas como a Clearview AI serem fechadas. Todavia, seus membros admitem que será um jogo de gato e rato, onde empresas sempre encontrarão maneiras de se adaptar a ferramentas como o Fawkes.

Fonte: Tech Spot

Faça pagamentos por reconhecimento facial, a novidade chegou ao Brasil!

Selfies com máscaras estão sendo usadas para treinar os sistemas de reconhecimento facial

Reconhecimento facial: o equilíbrio entre tecnologia e ética