Ao longo do primeiro turno da campanha eleitoral deste ano, o Facebook afirma que removeu de sua plataforma e do Instagram mais de 140 mil conteúdos que, segundo a companhia, violavam suas “políticas contra interferência eleitoral”. Entre essas publicações, a empresa cita postagens que, por exemplo, traziam horário errado de abertura das urnas – o que, na avaliação do Facebook, poderia desencorajar eleitores de irem votar.
Além disso, a empresa diz ter rejeitado no mesmo período cerca de 250 mil vezes a submissão de anúncios sobre política ou eleições que não traziam o rótulo “Propaganda Eleitoral” ou “Pago por” direcionados a pessoas no Brasil (conteúdos impulsionados).
No comunicado, o Facebook disse ainda que a maior parte dos adultos que usam a plataforma no Brasil viu um aviso no topo do Feed de Notícias que os convidava a conferir os protocolos sanitários para o dia da votação. Esse aviso indicava o site do Tribunal Superior Eleitoral (TSE) como fonte das informações. E, de acordo com a empresa, cerca de 3 milhões de pessoas clicaram para saber mais informações.
Investimento
A empresa diz ter investido nos últimos quatro anos, tanto em tecnologia quanto em pessoal, para reduzir a desinformação. A ideia foi agir mais rapidamente sobre contas e conteúdos que violavam suas políticas. Também destacou, no comunicado, que fez mudanças no WhatsApp para diminuir a disseminação de conteúdos virais.
No texto, o Facebook informa que as equipes que atuam “para proteger a integridade” dos serviços triplicou desde 2016, para mais de 35 mil pessoas – o comunicado não explicita quantos funcionários tinham essa atribuição há quatro anos.