ENTENDA

Facebook tira conclusões precipitadas em pesquisa que analisa impacto de seu algoritmo

Objetivo foi investigar influência da rede social nas eleições presidenciais de 2020 nos Estados Unidos

Foram realizados 4 experimentos com 40 mil usuários voluntários.Créditos: Pixabay
Escrito en TECNOLOGIA el

Um experimento realizado por universidades de primeira linha, como a Universidade de Nova York, a Universidade do Texas e Princeton nos Estados Unidos, teve como objeto da pesquisa as eleições presidenciais de 2020 nos Estados Unidos, na qual o democrata Joe Biden venceu o republicano Donald Trump.

Com a prévia conclusão da pesquisa de que o algoritmo do Facebook não teria influência na polarização política estadunidense, Nick Clegg, diretor de Assuntos Globais e principal lobista do Facebook, comemorou. “Os estudos experimentais mostram que há pouca evidência de que elementos das plataformas da Meta sozinhos causem polarização ou tenham impacto significativo nas principais atitudes políticas, crenças ou comportamentos”.

O trecho foi escrito pela empresa no dia 27 de julho, quando saiu o 1º artigo científico sobre os experimentos. É possível observar que a 1ª citação da declaração de Clegg é verídica, mas a 2º incorreta, já que nenhum dos quatro artigos resultantes dos experimentos realizados pela Meta com pesquisadores permite a conclusão de que a empresa não influencia o comportamento político.

A primeira hipótese é um tanto ingênua ao colocar o Facebook como responsável por toda a divisão da sociedade. O que se defende é o estímulo de conflito causado pelo algoritmo da plataforma que retém mais o usuário na rede social e aumenta a audiência.

Foram realizados 4 experimentos com 40 mil usuários voluntários em diferentes casos. Todas as experimentações baseiam-se em alterações no algoritmo da rede social, que tem como função matemática a determinação do conteúdo que será exibido na linha do tempo do usuário. Esta é a primeira vez que a Meta permite testes com seu algoritmo.

1- Pesquisadores realizaram experimentos comparando dois tipos de feed: o cronológico, em que as postagens aparecem em ordem do mais recente ao mais antigo, e o feed baseado no algoritmo usado pelas redes sociais. A hipótese era de que o feed cronológico evitaria a polarização política. No entanto, os resultados dos experimentos mostraram que não houve diferenças significativas entre os dois tipos de feed. Portanto, voltar ao modelo antigo do Facebook, baseado em um feed cronológico, não mudaria a situação atual em relação à polarização política, segundo a pesquisa.

2- O segundo experimento envolveu a supressão do compartilhamento de postagens para um determinado grupo de usuários. A ideia por trás disso era que, ao evitar o compartilhamento de postagens, comportamentos políticos extremados seriam evitados. No entanto, os resultados do experimento mostraram que não houve mudanças políticas significativas entre os usuários que não viram postagens compartilhadas.

3- Eles removeram o conteúdo gerado pelos usuários, que é o tipo de conteúdo mais comum nas redes sociais, para avaliar se isso alteraria o comportamento dos extremistas ou a disseminação de notícias falsas. No entanto, os resultados do experimento mostraram que não houve impacto significativo.

4- Foi observado pelos acadêmicos o comportamento de indivíduos que são segregados ideologicamente, incluindo aqueles da extrema-direita e radicais de esquerda. A descoberta foi que pessoas de extrema-direita tendem a ser mais isoladas de opiniões discordantes do que os liberais.

No entanto, as pesquisas foram feitas por apenas três meses, o que deixa um questionamento. Será que as crenças políticas podem mudar em tão curto espaço de tempo?

Sobre o algoritmo do Facebook ser isento de qualquer responsabilidade de influência nos usuários, nenhum dos pesquisadores endossou a tese da Meta. Talia Stroud, da Universidade do Texas em Austin, é uma das principais pesquisadoras que conduz o estudo e afirma que o algoritmo é “extremamente influente nas experiências das pessoas”

“Mas também sabemos que mudar o algoritmo por alguns meses provavelmente não mudará as atitudes políticas das pessoas”, reforça ela ao ponderar as conclusões dos experimentos. Ela e Joshua Tucker, da Universidade Nova York, defendem que os experimentos possam continuar por mais tempo.

Mais 12 artigos científicos sobre o Facebook e Instagram serão publicados, todos baseados em experimentos realizados durante as eleições presidenciais de 2020. É importante ressaltar que os pesquisadores envolvidos nesses estudos não receberam nenhum pagamento pela Meta.

Ainda não foi definido se a corporação permitirá que pesquisadores independentes avaliem os efeitos de seu algoritmo por mais tempo, como defendem. A pesquisadora Talia Stroud concordou em realizar a pesquisa dentro de um prazo que ela mesma julga irrisório, porém não tira conclusões precipitadas do estudo, como pratica o principal lobista do Facebook.

*Com informações do artigo do Poder360