O YouTube compartilha quantas pessoas assistem a vídeos problemáticos antes de serem removidos

6

O YouTube quer que o mundo saiba que está fazendo um trabalho melhor do que nunca ao aplicar suas próprias regras de moderação. A empresa diz que um número cada vez menor de pessoas vê vídeos problemáticos em seu site – como vídeos que contêm violência explícita, golpes ou discurso de ódio – antes de serem removidos.

Nos últimos meses de 2020, até 18 em cada 10.000 visualizações no YouTube foram de vídeos que violam as políticas da empresa e deveriam ter sido removidos antes que alguém os assistisse. Isso caiu de 72 em cada 10.000 visualizações no quarto trimestre de 2017, quando o YouTube começou a rastrear o número.

Mas os números vêm com uma advertência importante: enquanto medem o quão bem o YouTube está se saindo em limitar a disseminação de clipes problemáticos, eles baseiam-se basicamente nos vídeos que o YouTube acredita que deveriam ser removidos de sua plataforma – e a empresa ainda permite alguns vídeos obviamente perturbadores para ficar acordado.

A estatística é uma nova adição ao Relatório de aplicação das diretrizes da comunidade do YouTube, um relatório de transparência atualizado trimestralmente com detalhes sobre os tipos de vídeos que estão sendo removidos da plataforma. Essa nova figura é chamada de Taxa de Visualização Violativa, ou VVR, e rastreia quantas visualizações no YouTube acontecem em vídeos que violam suas diretrizes e devem ser removidos.

Este número é essencialmente uma forma de o YouTube medir o quão bom ele está moderando seu próprio site, com base em suas próprias regras. Quanto mais alto o VVR, mais problemáticos os vídeos se espalham antes que o YouTube possa capturá-los; quanto menor o VVR, melhor o YouTube está se saindo na eliminação de conteúdo proibido.

O YouTube fez um gráfico mostrando como o número caiu desde que começou a medir o número para uso interno:

O gráfico mostra o VVR começando em 0,63% - 0,72% no quarto trimestre de 2017 e caindo abruptamente no próximo ano para 0,23% - 0,27% antes de se estabilizar em torno de 0,16% - 0,18% nos anos seguintes.

Um gráfico do YouTube mostrando o VVR desde o início das medições.
Imagem: YouTube

A queda acentuada de 2017 a 2018 veio depois que o YouTube começou a confiar no aprendizado de máquina para detectar vídeos problemáticos, em vez de depender dos usuários para relatar problemas, disse Jennifer O’Connor, diretora de produto do YouTube para confiança e segurança, durante uma reunião com repórteres. O objetivo é “fazer com que esse número seja o mais próximo possível de zero”.

Os vídeos que violam as diretrizes de publicidade do YouTube, mas não as diretrizes gerais da comunidade, não são incluídos na figura VVR, pois não justificam a remoção. E o chamado "conteúdo limítrofe" que esbarra, mas não viola nenhuma regra, também não é considerado pelo mesmo motivo.

O'Connor disse que a equipe do YouTube usa a figura internamente para entender como eles estão se saindo em manter os usuários protegidos de conteúdos problemáticos. Se estiver subindo, o YouTube pode tentar descobrir quais tipos de vídeos estão escapando e priorizar o desenvolvimento de aprendizado de máquina para capturá-los. “A estrela do Norte para nossa equipe é manter os usuários seguros”, disse O’Connor.

Fonte: The Verge