Apple atrasa recurso que pode identificar abuso infantil no iPhone

Apple atrasa recurso que pode identificar abuso infantil no ao escanear as fotos contidas na galeria do iPhone.

apple-atrasa-recurso-que-pode-identificar-abuso-infantil-no-iphone
Imagem: Digital Information World

As críticas recebidas pela Apple fez a empresa recuar em um de seus planos. No início desse mês, a Apple anunciou que iria atrasar uma tecnologia polêmica que a tecnologia escaneia as fotos do iPhone dos usuários para verificar se há material de abuso sexual infantil, conhecida como CSAM (Material de abuso sexual Infantil).

A empresa fez um comunicado à imprensa via porta-voz que disse:

No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importante.

A Apple já tinha um plano pronto para a execução da verificação de imagem e compará-los com bancos de dados de imagens CSAM conhecidas. Isso faria com que o código em um iPhone olhasse não para as fotos em si, mas para hashes, representações alfanuméricas únicas de uma imagem, por exemplo.

Se os hashes no telefone correspondessem aos das imagens conhecidas do CSAM, a equipe da Apple verificaria a foto para ver se realmente era material de exploração infantil, antes de decidir passar ou não as informações para os investigadores da polícia, aponta a Forbes.

Apple enfrenta críticas e atrasa o recurso tecnológico que pode identificar material de abuso infantil em iPhones

apple-atrasa-recurso-que-pode-identificar-abuso-infantil-no-iphone
Imagem: Verdict

A Apple enfrentou uma reação significativa sobre o lançamento do recurso, apesar de suas boas intenções de ajudar no combate ao abuso infantil. Isso fez com que a empresa recusasse em seu recurso.

As pessoas parecem ter ficado incomodadas ao pensar que a Apple estava fazendo a varredura no dispositivo sem a permissão do usuário e que havia a possibilidade de um governo exigir que a Apple iniciasse a varredura em busca de outro conteúdo não CSAM.

De acordo com a Forbes, uma outra coisa que os críticos temiam era que a China, por exemplo, poderia pressionar a Apple a começar a procurar imagens que expressassem sentimentos antigovernamentais.

A empresa até tentou acalmar os temores lançando uma série de perguntas frequentes, nas quais dizia que nunca se curvaria a tais demandas e observando que a digitalização, embora ocorresse em iPhones em vez de no iCloud, cobriria apenas as fotos que foram definidas para ir para o iCloud. Os usuários podiam parar de escanear suas imagens pela Apple simplesmente desativando o compartilhamento de fotos com o iCloud.

Com tantas críticas, a empresa acabou não lançando o recurso junto com o iOS 15 e, não sabemos se e quando isso pode acontecer!

Via: Forbes