Presidentes falando o que, na verdade, não disseram. Rostos transformados em um vídeo num passe de mágica. Estamos falando das deep fakes ou manipulaçõ de imagens que podem colocar em risco a segurança de pessoas e países, dependendo da finalidade para a qual é usada. Afinal, dá para confiar no que estamos vendo e ouvindo? Isso se tornou um grande desafio com o avanço da tecnologia. Diantes dessas novas ameaças, grandes empresas como a Microsoft e outras ligadas à tecnologia já trabalham para garantir autenticidade a vídeos e fotos.
Empresas e governos estão cada vez mais preocupados com os efeitos nocivos dos deepfakes – imagens, vídeo ou áudio tão habilmente alterados por redes geradoras de inteligência artificial para se parecerem com outra pessoa que é difícil dizer que não são reais – podem causar à sua reputação, e também como poderiam ser usado para fraude ou hacking e phishing.
Mas em uma pesquisa recente realizada pela Attestiv, enquanto 80% estão preocupados com o risco, menos de 30% tomaram alguma providência e outros 46% não têm nenhum plano. Aqueles que esperam contar com o treinamento de funcionários para detectar falsificações profundas (provavelmente ainda mais difícil do que usar o treinamento para lidar com phishing) ou na detecção e filtragem automatizadas.A Microsoft tem um questionário que você pode responder para ver se consegue identificar deepfakes sozinho; isso é menos uma ferramenta de treinamento e mais uma tentativa de aumentar a conscientização e o conhecimento da mídia.
Ferramentas como o Autenticador de Vídeo da Microsoft procuram por artefatos onde a imagem foi alterada que podem revelar falsificações profundas que você pode não conseguir ver por si mesmo, mas eles não localizam tudo. No momento, o Autenticador de Vídeo está disponível apenas para veículos de notícias e campanhas políticas por meio da iniciativa Reality Defender 2020 da AI Foundation, provavelmente porque torná-lo amplamente disponível pode permitir que os criadores de ferramentas deepfake as ajustem para evitar a detecção.
“Podemos construir um detector que possa distinguir a realidade real desta realidade virtual sintetizada? Deepfakes são imperfeitos agora; você pode encontrar todos os tipos de artefatos”, disse o engenheiro da Microsoft, Paul England. Mas, como os deepfakes são criados por várias ferramentas, os artefatos são diferentes para cada técnica de criação de deepfake e mudam conforme as ferramentas evoluem. Há uma janela de um ou dois anos em que as ferramentas de verificação de deepfake serão úteis, mas a janela fechará rapidamente – e as ferramentas para detectar deepfakes podem realmente acelerar isso.
Você tem um sistema de IA que está criando deepfakes e um sistema de IA que detecta deepfakes. Então, se você construir o melhor detector do mundo e colocá-lo neste ciclo de feedback, tudo o que terá alcançado é ajudar seu criador deepfake melhores falsificações.
Microsoft e grandes empresas de tecnologia trabalham para trazer autenticidade aos vídeos e fotos
No entanto, em vez de depender de humanos ou computadores para detectar falsificações, a Microsoft está envolvida em várias iniciativas para permitir que os criadores provem que seu conteúdo não foi manipulado, garantindo de onde ele vem e sendo transparente sobre o que foi feito com ele. “Estamos atolados em informações, e uma fração decrescente delas vem de onde diz que está, e é do que diz que é”, disse ele. “Precisamos fazer algo para fortalecer as fontes de informação mais confiáveis.””Estamos atolados em informações e uma fração decrescente disso vem de onde diz que está e é do que diz que é. Precisamos fazer algo para apoiar as fontes de informação mais confiáveis.”Eminente engenheiro da Microsoft, Paul England.
A desinformação não é nova, mas está ficando muito mais fácil. O que costumava precisar de um estúdio de efeitos especiais de Hollywood e um orçamento enorme pode ser feito no Photoshop ou no TikTok.
“Há décadas que temos problemas com imagens. Chegou ao ponto em que é acessível ao usuário médio, e a escalabilidade de um ataque é muito maior agora com as redes sociais. O impacto dessas coisas é muito maior , e a capacidade das pessoas de determinar o que é real e falso está se desgastando rapidamente”, alertou o líder de segurança de mídia do Azure, Andrew Jenks.
Embora mostrar a procedência do conteúdo não resolva o problema da desinformação na web, ele espera que isso possa ser “um pequeno bloco de construção para ajudar a reconstruir a confiança e a credibilidade”.
Provando a verdade em vez de detectar falsificações
A Microsoft, a Adobe e uma série de organizações ligadas ao setor de mídia estão colaborando em várias iniciativas relacionadas com o objetivo de normalizar a verificação de onde as imagens e vídeos que vemos vêm e se foram adulterados.
Project Origin é uma aliança entre a Microsoft, a BBC, CBC / Radio-Canada e o New York Times para usar uma tecnologia da Microsoft chamada Autenticação de Mídia via Proveniência para publicar metadados à prova de adulteração – o local GPS onde uma foto foi tirada ou o original nome de um videoclipe, digamos – envolto em um manifesto assinado digitalmente que pode ser incorporado ao arquivo ou registrado em um livro razão do Confidential Consortium Framework. A mídia também pode ser autenticada por um hash criptográfico; uma impressão digital que será diferente para cada arquivo, portanto, editar o arquivo mudará a impressão digital – provando que foi adulterada. Essa impressão digital é armazenada no arquivo de imagem, vídeo ou áudio (pode abranger conteúdo de realidade mista no futuro).
A Microsoft está usando isso para colocar uma marca d’água digital no áudio criado por uma voz neural personalizada do Azure, para que não possa ser fingida como algo dito pelo humano que fez as gravações em que a voz neural se baseia. Também está criando um serviço Azure que criadores de conteúdo como a BBC podem usar para adicionar hashes e certificados a arquivos como metadados e um leitor que pode ser uma extensão de navegador ou incorporado em um aplicativo para verificar esses certificados e hashes e confirmar quem é o conteúdo de e que não foi alterado desde que foi criado.
A iniciativa
A Content Authenticity Initiative é um amplo grupo de organizações (incluindo a Microsoft) interessadas na autenticidade do conteúdo, liderado pela Adobe, que está criando uma ferramenta para permitir que os usuários do Photoshop e do Behance salvem dados de localização, detalhes do criador e até mesmo o histórico de cada edição feito para uma imagem dentro dessa imagem, novamente usando metadados, para que as pessoas olhando para a imagem mais tarde possam ver como ela foi editada.
Os dois projetos cobrem partes ligeiramente diferentes do problema. “A Adobe se concentra no processo criativo e editorial, no fluxo de trabalho por meio de um departamento editorial ou no fluxo de trabalho criativo em um departamento de arte”, disse England. “O foco da Microsoft está na distribuição de transmissão, uma vez que você tenha um produto acabado e o coloque na web. Você pode imaginar enviá-lo de volta à fonte da mídia – o celular ou câmera de alta qualidade que costumava Capture-o.”
Para reunir todas essas peças, a Coalition for Content Provenance and Authenticity está combinando-as em um padrão para provar de onde o conteúdo vem, de autoria da Adobe, Arm, BBC, Intel, Microsoft, TruePic e agora Twitter.
O C2PA permitirá que criadores e editores garantam seu conteúdo e sejam transparentes sobre qualquer edição que tenha sido feita nele, disse Andy Parsons, da Adobe, diretor da Content Authenticity Initiative.
“Se a BBC deseja garantir seu conteúdo e você confia na visão de mundo da BBC e nos métodos de fornecimento de conteúdo e verificação de fatos da BBC, estamos provando criptograficamente que algo que parece ser da BBC – independentemente de onde você o veja, seja no seu desktop [navegador] ou no Twitter ou no Facebook – é na verdade da BBC. O C2PA torna isso comprovável e evidente: se algo foi mexido, isso é detectável”, disse Parsons.
Comparações
Parsons comparou certificados C2PA a HTTPS para sites – um padrão da indústria que os consumidores agora esperam ver em sites confiáveis ??que fornece um nível de transparência sobre com quem você está falando, mas não garante como eles se comportarão – e proteção de direitos de informação em documentos comerciais. Isso não o impede de tirar uma foto do documento na tela para compartilhar com alguém que não está autorizado a vê-lo, mas o impede de fingir que não sabia que estava burlando os controles do documento para fazer isso.
“Não diz nada sobre a veracidade do que é retratado em uma imagem”, explicou. “Fala sobre quando algo foi feito e quem o fez: quando foi produzido, como foi editado e, finalmente, como foi publicado e chegou ao consumidor.”
Assim como clicar no ícone de cadeado em seu navegador, com o C2PA você verá algo como um ponto de interrogação verde no Twitter no qual você pode clicar para ver os detalhes. Você pode ver o tipo de informação que estará disponível fazendo upload de uma imagem para a ferramenta Verify no site Content Authenticity Initiative . Se você tiver uma imagem com metadados C2PA, disse Parsons, “você será capaz de ver as miniaturas de antes e depois e poderá fazer uma comparação lado a lado para ver o que mudou”.
Isso pode até incluir a imagem original se a câmera for compatível com C2PA. Qualcomm e TruePic estão testando um rascunho inicial do padrão em dispositivos protótipos que adicionam os dados de autenticidade do conteúdo à medida que os quadros são capturados. “Conseguimos fazer edições no Photoshop e, em seguida, trazer essas imagens para o site Verify, ver o que saiu da câmera, ver como eram as edições e quem as editou.”
Nem tudo é para enganar
Nem toda edição feita em uma imagem é enganosa, como corrigir o contraste e cortar um poste de luz. “Existem muitas transformações legítimas que são aplicadas à mídia à medida que ela flui por um canal de distribuição por boas razões”, apontou Inglaterra. “Estamos tentando criar um texto que permita que as pessoas façam as coisas que realmente precisam fazer para oferecer a você uma boa experiência de visualização de mídia, sem deixar brechas para permitir que as pessoas façam coisas que estariam bem de acordo com as regras, mas acabariam como sendo enganoso.”
Os criadores também podem optar por não documentar todas as alterações feitas em uma imagem ou vídeo se tiverem o que consideram boas razões para editar algumas informações, como borrar os rostos das pessoas na multidão atrás de alguém sendo preso, disse Parsons. “Nós fazemos algumas filmagens no momento para provar um ponto, para contar uma história, para revelar uma atrocidade, e se você tem pessoas identificáveis ??naquela foto, não é editorial para desfocar os rostos. Temos que ter certeza de que não há como evitar tecnologia de proveniência para rastrear a miniatura que tem os rostos não desfocados, porque isso colocaria involuntariamente as pessoas em risco de uma forma que o padrão não deveria permitir. “
O C2PA permite que os criadores incluam suas próprias afirmações sobre o conteúdo, como a de que eles são os detentores dos direitos autorais. Mais uma vez, trata-se de confiar no criador, em vez de transformar a Adobe em garantidora de direitos autorais, mas ser capaz de ter uma maneira criptograficamente verificável de anexá-la a uma imagem será uma melhoria do que Parsons chamou de “o oeste selvagem dos metadados atuais que podem ser facilmente cooptado removido, retirado, alterado [ou] editado. “
“Não queremos ser o árbitro da confiança ou da confiabilidade; não queremos ser aqueles que distribuem certificados para aqueles que atendem a certos critérios”, observou ele (embora os parceiros da coalizão possam ter que aceitar isso papel inicialmente para iniciar o sistema). “Os jornalistas não precisam se inscrever para o trustlet da Adobe, um equivalente da Microsoft ou uma autoridade de confiança centralizada.
“Proveniência permite que você decida em quais entidades você escolhe confiar e, basicamente, responsabiliza-as.”
Não há um único ecossistema ou postura política aqui, enfatizou a Inglaterra. “Acreditamos que há tanto direito para o Daily Mail ou OAN ter informações de proveniência incorporadas para que seus usuários que confiam neles possam ter certeza de que estão recebendo mídia inalterada quanto qualquer outro site. Queremos que isso esteja amplamente disponível para todos, dependendo de se você é a BBC ou, dependendo se você é Joe, do Azerbaijão, que é um jornalista cidadão. “
Confie e verifique
Nos próximos dois a cinco anos, a coalizão espera que fotógrafos, videógrafos, editores de fotos, jornalistas, redações, construtores de CMS, plataformas de mídia social, fabricantes de smartphones e câmeras e fornecedores de software adotem o C2PA como uma forma opcional de incluir a proveniência de fotos e vídeos. “Trata-se de capacitar as pessoas que desejam oferecer transparência e o objetivo final é que os consumidores passem a esperar que isso acompanhe todo o seu conteúdo em determinados cenários”, disse Parsons.
Seja comprando arte ou lendo notícias, ele espera que possamos esperar ver a proveniência e fazer julgamentos sobre o que estamos vendo com base em como foi editado. “Quando não está lá, você olha com algum ceticismo para a mídia que não o veicula; e se estiver lá, isso indica que ferramentas de IA foram usadas e você está em modo de consumo de notícias em uma plataforma de mídia social , você também pode ver esse conteúdo com mais ceticismo em relação à transparência. “
“Pensamos nas marcas d’água como migalhas de pão que permitiriam ao destinatário de um vídeo modificado voltar e ter uma boa ideia de como era o vídeo original”, acrescentou England. “Você pode imaginar serviços de comparação que diriam que este parece ser o mesmo vídeo. Você seria capaz de ver não apenas as informações da história atual, mas a história da história conforme ela fluía através da distribuição. Você pode imaginar um cenário onde a Al Jazeera distribuiu uma história para a BBC, e você pode saber que a BBC a pegou, mas também editou a partir do original. “
Mais adiante, se você estiver gravando um vídeo para fazer uma reivindicação de seguro ou enviar fotos de sua casa para alugá-la no Airbnb, esses serviços podem solicitar que você ative o C2PA para provar que está usando sua própria foto ou vídeo e não foi editado.
As empresas podem querer marcar seus ativos digitais com C2PA e garantir que não sejam manipulados para prejudicar sua reputação. O C2PA também pode ser útil no aprendizado de máquina, para provar que os dados de treinamento ou o modelo treinado não foram manipulados.
A Adobe mostrou um protótipo em uma versão beta privada do Photoshop que permite aos designers incluir atribuição; que provavelmente será lançado até o final deste ano. “Isso permitirá que as pessoas ativem o recurso de autenticidade de conteúdo no Photoshop para capturar informações, a seu critério, para optar por exportar imagens após a edição no Photoshop que trará consigo outras declarações e afirmações CTPA, agrupá-las criptograficamente e assiná-las com um certificado Adobe e, em seguida, prepare-os para consumo posterior. “
Mas assim que o esboço do padrão C2PA for publicado no final deste ano, sob um modelo de licenciamento aberto, navegadores e plataformas de mídia social e criadores de software começarão a incorporá-lo aos produtos e não necessariamente usarão os serviços da Adobe ou da Microsoft para isso.
Criar os hashes, adicionar as assinaturas digitais e distribuí-los com o conteúdo não é um problema tecnicamente difícil, disse a Inglaterra.
“O quão difícil é criar e distribuir esses manifestos conforme a mídia flui pela web depende da participação de um ecossistema bastante complicado. Os grandes jogadores aqui são, claro, as plataformas de mídia social, então estávamos procurando maneiras de podermos ainda progredir, mesmo que não tenhamos a participação desses intermediários entre onde a mídia é criada – digamos, publicada no site da BBC – e onde é consumida nos navegadores e aplicativos das pessoas. “
A adesão do Twitter ao C2PA é um bom sinal, e tem havido muito interesse no padrão. Portanto, embora o AMP não acabe com a desinformação e o ecossistema demore um pouco para crescer, a Inglaterra observa que “uma das coisas que aprendi fazendo segurança de computador em quase 30 anos é que o melhor é o inimigo de o bom.
Via TechRepublic