Uma grande ameaça e desafio dos tempos atuais foi o surgimento dos deepfakes. Porém, a partir de agora, o jogo parece estar mudando com vários aperfeiçoamentos. Tanto assim que a Intel diz que pode diferenciar seres humanos reais dos deepfakes em tempo real.
De acordo com a Intel, um modelo de IA que pode detectar em tempo real se um vídeo está usando a tecnologia deepfake. Esse recurso procura mudanças sutis na cor que seriam evidentes se o sujeito fosse um ser humano vivo.
O FakeCatcher é reivindicado pela gigante da fabricação de chips por ser capaz de retornar resultados em milissegundos e ter uma taxa de precisão de 96%.
Nos últimos anos , houve preocupação com os chamados vídeos deepfake, que usam algoritmos de IA para gerar imagens falsas de pessoas. A principal preocupação centrou-se no fato de ser potencialmente usado para fazer com que políticos ou celebridades pareçam estar expressando declarações ou fazendo coisas que na verdade não disseram ou fizeram.
Intel diz que pode diferenciar seres humanos reais dos deepfakes em tempo real
“Vídeos deepfake estão em toda parte agora. Você provavelmente já os viu; vídeos de celebridades fazendo ou dizendo coisas que nunca fizeram”, disse Ilke Demir, cientista da equipe de pesquisa da Intel Labs. E não está afetando apenas celebridades, até mesmo cidadãos comuns foram vítimas.
De acordo com o fabricante de chips, alguns detectores baseados em aprendizado profundo analisam os dados brutos do vídeo para tentar encontrar sinais indicadores que o identifiquem como falso. Em contraste, o FakeCatcher adota uma abordagem diferente, envolvendo a análise de vídeos reais em busca de pistas visuais que indiquem que o assunto é real.
Isso inclui mudanças sutis na cor dos pixels de um vídeo devido ao fluxo sanguíneo do coração bombeando o sangue pelo corpo. Esses sinais de fluxo sanguíneo são coletados de todo o rosto e os algoritmos os traduzem em mapas espaço-temporais, disse a Intel, permitindo que um modelo de aprendizado profundo detecte se um vídeo é real ou não. Algumas ferramentas de detecção exigem que o conteúdo do vídeo seja carregado para análise e depois espere horas pelos resultados, afirmou.
No entanto, não é impossível imaginar que qualquer pessoa com motivos para criar falsificações de vídeo possa desenvolver algoritmos que possam enganar o FakeCatcher, com tempo e recursos suficientes.
Como isso é feito
A Intel naturalmente fez uso extensivo de suas próprias tecnologias no desenvolvimento do FakeCatcher, incluindo o kit de ferramentas de código aberto OpenVINO para otimizar modelos de aprendizagem profunda e OpenCV para processar imagens e vídeos em tempo real. As equipes de desenvolvedores também usaram a plataforma Open Visual Cloud para fornecer uma pilha de software integrada para os processadores Xeon Scalable da Intel. O software FakeCatcher pode executar até 72 fluxos de detecção diferentes simultaneamente em processadores escalonáveis Xeon de 3ª geração.
De acordo com a Intel, existem vários casos de uso em potencial para o FakeCatcher, incluindo impedir que os usuários enviem vídeos deepfake prejudiciais para as mídias sociais e ajudar as organizações de notícias a evitar a transmissão de conteúdo manipulado.