Geradores de imagens de IA estão sendo treinados em imagens de abuso sexual infantil

Portanto, a Empresa demite 700 pessoas e diz possuir uma IA que funciona melhor

Modelos de treinamento de IA podem usar imagens reais que retratam abuso infantil. Um novo relatório alarmante do Observatório da Internet de Stanford descobriu que o conjunto de dados LAION-5B tem pelo menos 3.200 imagens de suspeita de abuso sexual infantil e até agora pelo menos mil imagens foram confirmadas por Stanford em colaboração com o Centro Canadense para Proteção Infantil e outros grupos antiabuso.

Imagens de IA de abuso sexual infantil

O que é mais preocupante é que esses dados são atualmente usados por ferramentas como o Stability AI da Stable Diffusion e os geradores de imagens do Google. No entanto, a boa notícia é que a organização sem fins lucrativos por trás do LAION deixou claro que tem uma política de tolerância zero para conteúdo prejudicial e removeria temporariamente os conjuntos de dados online à medida que o problema fosse analisado.

Embora as imagens constituam apenas uma pequena fração do banco de dados, o dano não pode ser subestimado. É muito possível que esses dados estejam sendo usados por pessoas mal-intencionadas para gerar imagens de pornografia ilegal e para outros fins nefastos. Na verdade, já houve incidentes relacionados ao uso de IA para remover digitalmente a roupa de adolescentes usando suas fotos nas redes sociais. Anteriormente, acreditava-se que isso era feito em grande parte usando dados de treinamento de pornografia adulta em combinação com imagens legais e comuns de crianças coletadas pelos scrappers dos dados de treinamento. Acontece que é possível que esses dados de treinamento ilegais também estejam envolvidos.

geradores-de-imagens-de-ia-estao-sendo-treinados-em-imagens-de-abuso-sexual-infantil

Infelizmente, a forma como os modelos de IA funcionam torna difícil impedir a eliminação de dados ilegais que encontra na Internet, o que torna a importância das salvaguardas ainda mais crucial. Este novo relatório ajuda a lançar uma luz ainda mais brilhante que implementa as proteções e regulamentações necessárias.

IA nas notícias: o que mais está acontecendo esta semana

Embora o relatório acima seja certamente a notícia mais preocupante da semana, está longe de ser a única coisa que acontece na IA. Aqui está um rápido resumo:

  • A Rite Aid teve problemas com a FTC depois de usar o reconhecimento facial de IA para perseguir ladrões de lojas e outros malfeitores. A empresa estava usando as imagens para construir um banco de dados de “pessoas de interesse”. Esse banco de dados acabou levando os funcionários das lojas a usar essas informações para acusar os clientes de mau comportamento, visando principalmente mulheres e pessoas de cor.
  • Um novo projeto chamado Predicting Image Geolocations foi criado por três estudantes de Stanford para ajudar a descobrir onde as imagens do Google Street View foram tiradas pela primeira vez. Mas depois de fornecer fotos pessoais nunca antes vistas, eles foram capazes de usar a IA para encontrar com precisão a localização da pessoa com um alto grau de precisão.
  • A UE quer apoiar startups locais de IA. A União Europeia quer proporcionar a estas startups acesso ao poder de processamento necessário que um supercomputador pode fornecer.
  • Um jornal do Arkansas está processando o Google. O processo movido por Helana World Chronicle afirma que o Google Bard AI foi treinado em um conjunto de dados que incluía “notícias, revistas e publicações digitais” e que isso está impactando negativamente a imprensa livre sem nenhum retorno positivo. Afirma ainda que a recente IA do Google foi projetada para desencorajar os usuários finais de visitar sites de notícias, preferindo usar a IA diretamente do Google para o trabalho.