YOUTUBE | Como o conteúdo nocivo é removido da plataforma

Nos últimos anos, o YouTube redobrou seus esforços para cumprir sua responsabilidade, preservando a magia da plataforma aberta. O trabalho é baseado em quatro princípios:

Nos próximos meses, o YouTube divulgará mais detalhes sobre como trabalha para cumprir com cada um desses princípios. O primeiro passo se concentrará em “Remover”. O conteúdo prejudicial é removido desde o início do YouTube, mas o investimento vem acelerando nos últimos anos. Graças a esse trabalho contínuo, nos últimos 18 meses, as visitas a vídeos que foram posteriormente eliminados por violar as políticas da plataforma foram reduzidas em 80%.

Confira alguns dos principais tópicos discutidos no post!

Desenvolvimento de políticas para uma plataforma global

Antes de remover qualquer conteúdo que viole as políticas do YouTube, é preciso garantir que a linha que separa o que é removido do que é permitido esteja no lugar certo, com o objetivo de preservar a liberdade de expressão e proteger nossa comunidade.

  • Desde 2018, introduzimos dezenas de atualizações em nossos padrões: muitos deles são pequenos esclarecimentos, mas outros são mais profundos.

  • Nossa atualização sobre discurso de ódio representou uma mudança fundamental em nossas políticas. Passamos vários meses desenvolvendo essa política e trabalhando com nossas equipes para criar as ferramentas e estabelecer o treinamento necessário para garantir a conformidade.

  • Em abril de 2019, também anunciamos que estamos trabalhando para atualizar nossa política de assédio, incluindo o assédio entre criadores. Compartilharemos nosso progresso nessa questão nos próximos meses.

Uso da tecnologia para detectar conteúdo nocivo

  • Em 2017, aumentamos o uso de nossa tecnologia de aprendizado de máquina para ajudar a detectar conteúdo que potencialmente viola nossas políticas e enviá-las para análise por uma equipe humana.

  • Mais de 87% dos 9 milhões de vídeos excluídos no segundo trimestre de 2019 foram detectados pela primeira vez por nossos sistemas automáticos.

  • Estamos investindo significativamente em nossos sistemas de detecção automática, e nossas equipes de engenheiros continuam atualizando e aprimorando-os mês a mês. Por exemplo, uma atualização em nosso sistema de detecção de spam no segundo trimestre de 2019 levou a um aumento de 50% nos canais excluídos por violar nossas políticas de spam.

  • As melhorias em nossos sistemas automáticos nos ajudaram a detectar e revisar o conteúdo antes de serem relatados pela nossa comunidade, o que permitiu que, no segundo trimestre de 2019, mais de 80% dos vídeos relatados fossem excluídos automaticamente antes de terem uma única visualização.

  • Estamos determinados a continuar reduzindo a exposição a vídeos que violam nossas políticas. É por isso que, no Google, temos mais de 10.000 pessoas encarregadas de detectar, revisar e excluir conteúdo que viola nossas regras.

Na semana passada, atualizamos nosso relatório de aplicativo de padrões da comunidade, um estudo que fornece mais detalhes sobre a quantidade de conteúdo que removemos do YouTube, os motivos para sua remoção e como foi detectado pela primeira vez.

Este relatório mostra como a tecnologia que desenvolvemos nos últimos anos nos ajudou a remover conteúdo prejudicial do YouTube mais rápido do que nunca. Além disso, conclui como a experiência humana permanece crítica em nossos esforços para criar políticas, revisar cuidadosamente o conteúdo e gerenciar nossa tecnologia de aprendizado de máquina com responsabilidade.

Com informações da Assessoria do Google Brasil enviada ao SempreUpdate
Share This Article
Follow:
Fundador do SempreUPdate. Acredita no poder do trabalho colaborativo, no GNU/Linux, Software livre e código aberto. É possível tornar tudo mais simples quando trabalhamos juntos, e tudo mais difícil quando nos separamos.
Sair da versão mobile