O Twitter está investigando por que sua visualização de fotos parece favorecer rostos brancos em vez de rostos negros

10

O Twitter estava investigando por que a rede neural que usa para gerar visualizações de fotos aparentemente opta por mostrar rostos de pessoas brancas com mais frequência do que rostos negros.

Vários usuários do Twitter demonstraram o problema no fim de semana, postando exemplos de postagens que tinham o rosto de um negro e o rosto de um branco. A prévia do Twitter mostrou os rostos brancos com mais frequência.

O teste informal começou depois que um usuário do Twitter tentou postar sobre um problema que percebeu no reconhecimento facial de Zoom, que não mostrava o rosto de um colega negro nas ligações. Quando postou no Twitter, ele percebeu que também estava favorecendo seu rosto branco sobre o rosto de seu colega negro.

Os usuários descobriram que o algoritmo de visualização também escolheu personagens de desenhos animados não negros.

Quando O Twitter começou a usar a rede neural para cortar automaticamente visualizações de fotos, pesquisadores de aprendizado de máquina explicado em uma postagem do blog como eles começaram com o reconhecimento facial para cortar imagens, mas descobriram que faltava, principalmente porque nem todas as imagens têm rostos:

Anteriormente, usávamos a detecção de rosto para focar a visualização no rosto mais proeminente que podíamos encontrar. Embora essa não seja uma heurística irracional, a abordagem tem limitações óbvias, pois nem todas as imagens contêm rostos. Além disso, nosso detector de rosto muitas vezes não via rostos e às vezes detectava rostos por engano quando não havia nenhum. Se nenhum rosto fosse encontrado, focalizaríamos a visualização no centro da imagem. Isso pode levar a imagens de visualização estranhamente cortadas.

O diretor de design do Twitter, Dantley Davis, tuitou que a empresa estava investigando a rede neural, enquanto conduzia alguns experimentos não científicos com imagens:

Liz Kelley, da equipe de comunicação do Twitter, tuitou no domingo que a empresa havia testado para preconceito, mas não encontrou evidências de preconceito racial ou de gênero em seus testes. “É claro que temos mais análises para fazer,” Kelley tuitou. “Vamos abrir o código do nosso trabalho para que outros possam revisar e replicar.”

O Twitter não respondeu imediatamente a um pedido de comentário no domingo.

Fonte: The Verge