O Facebook pode restringir o conteúdo para impedir a violência em torno da eleição presidencial

5

O Facebook afirma que pode restringir agressivamente o conteúdo se a eleição presidencial dos EUA provocar violentos distúrbios, de acordo com Financial Times. O chefe de assuntos globais, Nick Clegg, disse FT que o Facebook estava procurando “algumas opções de quebra-vidros disponíveis para nós se realmente houver um conjunto de circunstâncias extremamente caótico e, pior ainda, violento”.

Clegg não discutiu quais eram essas opções. Mas ele mencionou o uso anterior de "medidas bastante excepcionais para restringir significativamente a circulação de conteúdo em nossa plataforma", implementadas em países onde há "instabilidade cívica real". Uma fonte não identificada disse que a empresa modelou 70 resultados eleitorais e como responder a eles, contando com uma equipe, incluindo “planejadores de cenários militares de classe mundial”.

Facebook (entre outras redes sociais) tentou evitar preocupações sobre desinformação, intromissão eleitoral e possíveis apelos à violência em torno da eleição presidencial. isto anunciado no início de setembro que deixará de aceitar anúncios políticos na semana anterior ao dia das eleições e está promovendo seu próprio Centro de Informação ao Eleitor com informações oficiais sobre como votar.

O Facebook também colocará um rótulo informativo nas postagens que lançam dúvidas sobre o resultado da eleição ou declaram vitória prematuramente – um problema que pode surgir se um grande número de pessoas votar pelo correio devido à pandemia COVID-19, especialmente porque o presidente Donald Trump o fez alegado sem fundamento que os votos por correspondência são fraudulentos.

Os esforços da empresa também vão além da política americana, incluindo um esforço para detectar e remover discurso de ódio antes das eleições em Mianmar neste outono.

No entanto, o Facebook tem falhado repetidamente em restringir o conteúdo que promove violência ou desinformação. Um recente New York Times relatório descobriram que os teóricos da conspiração QAnon floresceram na plataforma, apesar das tentativas de repressão. Seu foco em Mianmar vem depois de oficiais militares usou o Facebook para fomentar violência genocida contra a minoria Rohingya do país. E não removeu um evento autoproclamado de milícia que os usuários avisado com precisão pode levar à violência – algo que o CEO Mark Zuckerberg mais tarde chamado um “erro operacional”.

Fonte: The Verge