O Conselho de Supervisão da Meta instou, na terça-feira, os executivos da empresa a avaliarem o impacto sobre os direitos humanos do fim do programa de verificação de fatos nos Estados Unidos e da moderação mais branda em suas plataformas.
De acordo com um relatório deste órgão independente, criado em 2020, a decisão da Meta de abandonar o programa de verificação de fatos em parceria com organizações independentes foi "precipitada e violou os procedimentos padrão".
Te podría interesar
O órgão acrescentou que essa medida para o Facebook, Instagram e Threads não foi acompanhada de "informações públicas sobre as avaliações, se houver, de seu impacto sobre os direitos humanos".
Além de anunciar o fim da verificação de fatos nos Estados Unidos no início de janeiro, a Meta atualizou suas políticas e práticas de moderação de conteúdo.
Te podría interesar
Como resultado, a empresa decidiu remover menos mensagens e postagens que pudessem violar seus padrões, especialmente comentários direcionados a minorias.
O Meta argumentou que "muito conteúdo foi censurado quando não deveria".
Em resposta, diversas organizações alertaram sobre as consequências dessas mudanças para minorias, como a comunidade LGBTQ+.
O conselho também sugeriu que o Meta "avalie a eficácia das notas de contexto, em comparação com a verificação de fatos", especialmente quando a desinformação representa "um risco à segurança das pessoas".
O Meta optou por substituir a verificação de fatos pelas chamadas "notas da comunidade", que os usuários criam quando acreditam que uma publicação precisa de esclarecimento ou contextualização, geralmente anexando as fontes.
O Conselho de Supervisão do Meta atua como um tribunal para resolver disputas sobre conteúdo publicado nas plataformas, e a gigante das mídias sociais concordou em acatar suas decisões.