WhatsApp está tendo problemas com pornografia infantil criptografada

A pornografia infantil está se tornando um problema cada vez mais sério na internet. O compartilhamento de imagens deste tipo de crime afeta vários aplicativos. Por ser mais usado, o Whatsapp está tendo problemas com pornografia infantil criptografada. Além disso, o Facebook, responsável pelo aplicativo, não fornece moderadores suficientes. Assim, os grupos do WhatsApp estão sendo utilizados para divulgar pornografia infantil ilegal, encoberta pela criptografia de ponta a ponta do aplicativo. Sem o numero necessário de moderadores humanos, o conteúdo passa batido pelos sistemas automatizados do WhatsApp.

Relatório de investigação

Um relatório de duas ONGs israelenses analisadas pelo TechCrunch detalha como os aplicativos de terceiros descobrem grupos contendo seções “Adultas”. Esses aplicativos oferecem links de convite para participar de grupos de usuários que trocam imagens de exploração infantil. O TechCrunch analisou materiais e conclui que muitos desses grupos estão ativos no momento.

A investigação do TechCrunch mostra que o Facebook poderia fazer mais para policiar o WhatsApp e remover este tipo de conteúdo. Não precisa de soluções técnicas que exijam um enfraquecimento da criptografia. Os moderadores do WhatsApp poderiam localizar estes grupos e encerrá-los imediatamente.

Foram vistos grupos com diversos nomes referindo-se diretamente a este tipo de crime. Um dos aplicativos de descoberta de grupos não faz a mínima questão de esconder os termos.

Além disso, uma captura de tela fornecida pela startup anti-exploração AntiToxin revelou grupos ativos do WhatsApp com nomes como “videos cp” – uma abreviação conhecida de “pornografia infantil“.

 

Uma captura de tela de grupos de exploração infantil ativos no WhatsApp. Números de telefone e fotos fornecidos por AntiToxin.

Uma melhor investigação manual desses aplicativos de descoberta de grupos e do próprio WhatsApp deveria ter imediatamente levado esses grupos a serem excluídos e seus membros banidos.

Enquanto o Facebook dobrou sua equipe de moderação de 10.000 para 20.000 em 2018 para reprimir interferências eleitorais, bullying e outras violações políticas, essa equipe não modifica o conteúdo presente no WhatsApp. Ele é executado de forma independente e a empresa confirma que não tem apoio na moderação. São apenas 300 funcionários para monitorar 1,5 bilhão de usuários em todo o mundo, nas mais diversas línguas.

Detalhes da investigação

O WhatsApp diz que agora está investigando os grupos mostrados na pesquisa. Um porta-voz do Facebook diz ao TechCrunch:

Manter as pessoas seguras no Facebook é fundamental para o trabalho de nossas equipes em todo o mundo. Nós nos oferecemos para trabalhar em conjunto com a polícia em Israel para iniciar uma investigação para acabar com esse abuso. 

Uma declaração do chefe da polícia israelense do Departamento On-line de Proteção à Criança, Meir Hayoun, observa que:

Sempre diga a qualquer pessoa que queira denunciar qualquer conteúdo pedófilo para contatar a polícia israelense para denunciar uma queixa.”

Medidas já adotadas

Um porta-voz do WhatsApp informou também que analisa todas as informações não criptografadas em sua rede. Segundo ele, é vista qualquer coisa fora das próprias linhas de bate-papo, incluindo fotos de perfil de usuário, fotos e informações de perfil de grupo. Ele procura combinar o conteúdo com os bancos de fotos de pornografia infantil indexada do PhotoDNA que muitas empresas de tecnologia usam para identificar imagens inapropriadas anteriormente relatadas. Se encontrar uma correspondência, essa conta, ou esse grupo e todos os seus membros, receberão uma proibição vitalícia do WhatsApp.

Para desencorajar o abuso, o WhatsApp diz que limita os grupos a 256 membros. Da mesma forma, não fornece uma função de pesquisa para pessoas ou grupos dentro de seu aplicativo. Além disso, não incentiva a publicação de links de convite e a grande maioria dos grupos tem seis ou menos membros. Igualmente, o WhatsApp afirma estar trabalhando com o Google e a Apple para impor seus termos de serviço a aplicativos. Segundo a empresa, isso coibiria a descoberta de grupos de exploração infantil.

Google Play no caminho certo

O Google não forneceu comentários. Porém o aplicativo com os links de grupos para o WhatsApp  foi removido do Google Play.

Se as imagens não corresponderem ao banco de dados, mas forem suspeitas de exibir exploração infantil, elas serão revisadas manualmente. Se for considerado ilegal, o WhatsApp bane as contas e/ou grupos. Do mesmo modo, impede que ele seja carregado no futuro. Além disso, reporta o conteúdo e as contas ao National Center for Missing and Exploited Children. O único grupo de exemplo relatado ao WhatsApp pelo Financial Times já foi sinalizado para revisão humana por seu sistema automatizado. Ele foi banido junto com todos os 256 membros.

Share This Article
Formado em Gestão em Tecnologia da Informação. Entusiasta por projetos FOSS e por Cybersegurança.
Sair da versão mobile