BusinessTimes

Conselho de supervisão do Facebook busca mais transparência sobre perfis destacados

23 out 2021, 10:00 - atualizado em 21 out 2021, 14:17
Facebook
O Facebook, na forma de uma opinião consultiva sobre políticas, pediu ao conselho para revisar seu sistema de verificação cruzada e fazer recomendações sobre como ele pode ser alterado (Imagem: REUTERS/Dado Ruvic)

O conselho de supervisão independente do Facebook (FB) exigiu na quinta-feira mais transparência da gigante da mídia social, dizendo que a empresa não foi “totalmente aberta” sobre como lida com certas contas de usuários e perfis em destaque.

Os comentários seguem reportagem do Wall Street Journal no mês passado que afirmou que milhões de contas do Facebook pertencentes a celebridades, políticos e outros usuários populares foram isentas de algumas verificações internas.

O conselho disse que o Facebook não tem sido transparente sobre o sistema de “verificação cruzada” da empresa, um programa interno que a companhia afirma usar para verificar ações de políticas de uso do serviço tomadas contra certos usuários.

Em relação à decisão de maio de manter por tempo indeterminado a suspensão da conta de Donald Trump após o ataque de 6 de janeiro contra o Congresso dos Estados Unidos, o conselho disse que quando o Facebook encaminhou o caso, não mencionou o sistema de verificação cruzada até que fosse solicitado.

“Visto que a indicação incluiu uma questão de política específica sobre a aplicação de nível de conta para líderes políticos, muitos dos quais o conselho de supervisão acredita que foram verificados, esta omissão não é aceitável”, disse o documento.

O Facebook, na forma de uma opinião consultiva sobre políticas, pediu ao conselho para revisar seu sistema de verificação cruzada e fazer recomendações sobre como ele pode ser alterado.

Um porta-voz da empresa disse que o trabalho do conselho foi “impactante” e é por isso que ele pediu informações para o sistema de verificação cruzada.

O Facebook criou o conselho principalmente para responder às críticas sobre como lida com conteúdo que viola as regras da rede social e o órgão é responsável por decisões independentes sobre uma série de assuntos espinhosos relacionadas à moderação de conteúdo.

Em seu primeiro relatório trimestral, o conselho disse que mais de meio milhão de usuários do Facebook e Instagram apresentaram recursos entre outubro de 2020 e o final de junho de 2021, dos quais mais de um terço era sobre conteúdo relacionado às regras do Facebook contra discursos de ódio.