O sistema de entrega de anúncios do Facebook ainda tem preconceito de gênero, descobriu um novo estudo

12

Uma auditoria realizada por pesquisadores da University of Southern California descobriram que o sistema de entrega de anúncios do Facebook discrimina as mulheres, mostrando-lhes anúncios diferentes dos exibidos para os homens e impedindo as mulheres de ver alguns anúncios.

“A entrega de anúncios do Facebook pode resultar em distorções na entrega de anúncios de emprego por gênero, além do que pode ser legalmente justificado por possíveis diferenças nas qualificações”, escreveram os pesquisadores em seu relatório, “fortalecendo assim os argumentos levantados anteriormente de que os algoritmos de entrega de anúncios do Facebook podem estar violando das leis anti-discriminação. ”

A equipe de pesquisadores comprou anúncios no Facebook para listas de empregos de motorista de entrega que tinham requisitos de qualificação semelhantes, mas para empresas diferentes. Os anúncios não especificavam um grupo demográfico específico. Um era um anúncio para os motoristas de entrega de pizza da Domino's, o outro para os motoristas da Instacart. De acordo com os pesquisadores, a Instacart tem mais motoristas do sexo feminino, mas a Domino’s tem mais motoristas do sexo masculino. Com certeza, o estudo descobriu que o Facebook direcionou o trabalho de entrega da Instacart para mais mulheres e o trabalho de entrega do Domino para mais homens.

Os pesquisadores realizaram um experimento semelhante no LinkedIn, onde descobriram que o algoritmo da plataforma mostrava a listagem do Domino para tantas mulheres quanto mostrava o anúncio da Instacart.

Dois outros pares de listas de empregos semelhantes que os pesquisadores testaram no Facebook revelaram descobertas semelhantes: uma lista de um engenheiro de software na Nvidia e uma de vendedor de carros foram mostradas a mais homens, e um emprego de engenheiro de software da Netflix e uma lista de associado de vendas de joias foram mostradas para mais mulheres. Se isso significa que o algoritmo descobriu a demografia atual de cada trabalho quando direcionou os anúncios, não está claro, já que o Facebook não sabe como funciona a entrega de seus anúncios.

Esta não é a primeira vez que uma pesquisa descobriu que o sistema de segmentação de anúncios do Facebook é discriminatório contra alguns usuários. UMA Investigação de 2016 por ProPublica descobriram que a ferramenta de "afinidades étnicas" do Facebook pode ser usada para impedir que usuários negros ou hispânicos vejam anúncios específicos. Se tais anúncios fossem para habitação ou oportunidades de emprego, a segmentação poderia ter sido considerada uma violação da lei federal. O Facebook disse em resposta que reforçaria seus esforços anti-discriminação, mas um segundo ProPublica relatório em 2017 descobriu que os mesmos problemas existiam.

E em 2019, o Departamento de Habitação e Desenvolvimento Urbano dos EUA arquivado acusações contra o Facebook por discriminação habitacional, depois de descobrir que havia motivos razoáveis ​​para acreditar que o Facebook havia veiculado anúncios que violavam o Fair Housing Act.

HUD disse em uma reclamação que as ferramentas de segmentação do Facebook eram uma reminiscência de práticas de linha vermelha, pois permitiam que os anúncios excluíssem homens ou mulheres de ver determinados anúncios, bem como uma ferramenta de mapa “para impedir que pessoas que moram em uma área específica vejam um anúncio, desenhando uma linha vermelha ao redor dessa área ”, de acordo com a denúncia. Facebook resolveu o processo e disse que em 2019 havia caído opções de segmentação de anúncios para anúncios de habitação e emprego.

O Facebook não respondeu imediatamente a um pedido de comentário de The Verge na sexta.

Fonte: The Verge