Modelos de treinamento de IA podem usar imagens reais que retratam abuso infantil. Um novo relatório alarmante do Observatório da Internet de Stanford descobriu que o conjunto de dados LAION-5B tem pelo menos 3.200 imagens de suspeita de abuso sexual infantil e até agora pelo menos mil imagens foram confirmadas por Stanford em colaboração com o Centro Canadense para Proteção Infantil e outros grupos antiabuso.
Imagens de IA de abuso sexual infantil
O que é mais preocupante é que esses dados são atualmente usados por ferramentas como o Stability AI da Stable Diffusion e os geradores de imagens do Google. No entanto, a boa notícia é que a organização sem fins lucrativos por trás do LAION deixou claro que tem uma política de tolerância zero para conteúdo prejudicial e removeria temporariamente os conjuntos de dados online à medida que o problema fosse analisado.
Embora as imagens constituam apenas uma pequena fração do banco de dados, o dano não pode ser subestimado. É muito possível que esses dados estejam sendo usados por pessoas mal-intencionadas para gerar imagens de pornografia ilegal e para outros fins nefastos. Na verdade, já houve incidentes relacionados ao uso de IA para remover digitalmente a roupa de adolescentes usando suas fotos nas redes sociais. Anteriormente, acreditava-se que isso era feito em grande parte usando dados de treinamento de pornografia adulta em combinação com imagens legais e comuns de crianças coletadas pelos scrappers dos dados de treinamento. Acontece que é possível que esses dados de treinamento ilegais também estejam envolvidos.
Infelizmente, a forma como os modelos de IA funcionam torna difícil impedir a eliminação de dados ilegais que encontra na Internet, o que torna a importância das salvaguardas ainda mais crucial. Este novo relatório ajuda a lançar uma luz ainda mais brilhante que implementa as proteções e regulamentações necessárias.
IA nas notícias: o que mais está acontecendo esta semana
Embora o relatório acima seja certamente a notícia mais preocupante da semana, está longe de ser a única coisa que acontece na IA. Aqui está um rápido resumo:
- A Rite Aid teve problemas com a FTC depois de usar o reconhecimento facial de IA para perseguir ladrões de lojas e outros malfeitores. A empresa estava usando as imagens para construir um banco de dados de “pessoas de interesse”. Esse banco de dados acabou levando os funcionários das lojas a usar essas informações para acusar os clientes de mau comportamento, visando principalmente mulheres e pessoas de cor.
- Um novo projeto chamado Predicting Image Geolocations foi criado por três estudantes de Stanford para ajudar a descobrir onde as imagens do Google Street View foram tiradas pela primeira vez. Mas depois de fornecer fotos pessoais nunca antes vistas, eles foram capazes de usar a IA para encontrar com precisão a localização da pessoa com um alto grau de precisão.
- A UE quer apoiar startups locais de IA. A União Europeia quer proporcionar a estas startups acesso ao poder de processamento necessário que um supercomputador pode fornecer.
- Um jornal do Arkansas está processando o Google. O processo movido por Helana World Chronicle afirma que o Google Bard AI foi treinado em um conjunto de dados que incluía “notícias, revistas e publicações digitais” e que isso está impactando negativamente a imprensa livre sem nenhum retorno positivo. Afirma ainda que a recente IA do Google foi projetada para desencorajar os usuários finais de visitar sites de notícias, preferindo usar a IA diretamente do Google para o trabalho.