Desde as eleições de 2016 nos Estados Unidos, a desinformação aumentou em alcance e sofisticação em todo o mundo, interferindo diretamente em eleições democráticas. No ciclo eleitoral de 2024, no mesmo país, com o mesmo candidato que deu origem ao termo “fake news”, teorias da conspiração sobre o clima, a agenda woke, a vida dos imigrantes, das pessoas trans e das mulheres, além das teorias eleitorais enganosas de Elon Musk, dono do X, e o alinhamento declarado da Meta, Apple, OpenAI e Google, dão agora um tom mais aprimorado e concentrado da desinformação e do poder sobre a informação.
Uma pesquisa conduzida pelo conselho acadêmico da revista PLOS ONE revelou que cerca de 73% dos americanos já se depararam com notícias enganosas relacionadas às eleições, e aproximadamente metade tem dificuldades em distinguir entre fatos e informações falsas. Ao mesmo tempo, as preocupações com a desinformação também já estão amplamente difundidas no mundo: 85% das pessoas em diferentes países estão preocupadas com a ineficiência do combate à desinformação.
O termo "tornar-se viral" vai além de um clichê. Pesquisadores do PLOS ONE descobriram uma analogia entre a propagação da desinformação e a transmissão de vírus na rede X. De fato, o alastramento de notícias falsas pode ser descrito pelos mesmos modelos matemáticos usados para simular a propagação de doenças. Assim como os vírus se transformam para resistir a defesas e se propagar mais eficientemente, as informações falsas também se tornam mais sofisticadas e complexas para enganar e manipular.
Modelos matemáticos derivados da epidemiologia, que estuda a ocorrência e disseminação de doenças na população, têm sido aplicados em estudos recentes sobre a propagação de desinformação. Originalmente criados para analisar a transmissão de vírus, esses modelos se mostram úteis na investigação da difusão de fake news nas redes.
O modelo suscetível-infectado-recuperado (SIR) é um exemplo que pode ser utilizado para estudar a desinformação, simulando a interação entre indivíduos suscetíveis (S), infectados (I) e aqueles que se tornaram recuperados ou resistentes (R).
Através de equações diferenciais, usadas para analisar como ocorrem mudanças ao longo do tempo, esses modelos podem ser aplicados diretamente ao estudo da disseminação de desinformação. Nas mídias sociais, a desinformação se espalha de indivíduo para indivíduo, com alguns sendo "infectados" e outros imunes. Há também aqueles que funcionam como vetores assintomáticos, repassando a informação errada sem perceber ou ser afetados por ela.
Esses modelos oferecem grande utilidade, pois nos ajudam a prever e simular dinâmicas sociais, além de calcular métricas como o número básico de reprodução (R0), que indica o número médio de pessoas "infectadas" por cada indivíduo.
A modelagem matemática geralmente se divide em dois tipos principais: a pesquisa fenomenológica, na qual os pesquisadores descrevem padrões observados, e o trabalho mecanicista, que usa relações conhecidas para fazer previsões. Esses modelos são importantes porque ajudam a entender como intervenções podem ser eficazes na redução da propagação de desinformação nas redes sociais.
Para explicar isso de forma simples, um modelo básico foi representado em um gráfico pelos pesquisadores. Esse modelo nos permite analisar como um sistema pode se desenvolver sob diferentes suposições hipotéticas, que podem ser testadas posteriormente.
A época eleitoral foi escolhida como contexto para o estudo, uma vez que, nesse período, a disseminação de desinformação cresce consideravelmente. Nas redes sociais, figuras influentes com muitos seguidores atuam como "superdisseminadores" de desinformação eleitoral, espalhando mentiras para milhões de pessoas. Isso reflete a realidade atual, em que as autoridades da informação estão tendo dificuldades em acompanhar e corrigir todas as informações falsas.
Assumindo de forma hipotética de que as pessoas têm apenas 10% de chance de ser "infectadas" (ou seja, acreditar) após entrarem em contato com uma informação falsa, a desinformação ainda se espalha rapidamente. Mesmo que se tente desmascarar essas mentiras, o impacto é pequeno, como mostram estudos. No cenário de 10% de chance de "infecção", a população afetada pela desinformação eleitoral cresce rapidamente, como ilustrado pela linha laranja no gráfico à esquerda.
A pesquisa mostrou que através do que os cientistas chamam de "inoculação psicológica", ou prebunking, é possível fortalecer a "imunidade" das pessoas contra a desinformação, assim como as vacinas nos protegem contra doenças. A inoculação psicológica seria como uma vacina ao entrar no corpo. Ao apresentar preventivamente uma informação falsa, seguida de sua refutação, as pessoas se tornam mais resistentes à desinformação no futuro. Essa técnica as prepara para identificar e rejeitar informações falsas, evitando que sejam "infectadas".
A suscetibilidade à desinformação varia de pessoa para pessoa, mas a abordagem epidemiológica segue útil, segundo o estudo. Os modelos podem ser ajustados de acordo com a dificuldade de "infecção" em diferentes grupos, permitindo uma análise mais precisa da disseminação da desinformação.
Outro estudo, do Instituto de Tecnologia de Massachusetts (MIT), concluiu que notícias falsas se disseminam com mais rapidez na internet do que informações verdadeiras. Mensagens falsas são repassadas sete vezes mais rápido que um conteúdo legítimo.
Os autores utilizaram o conceito de profundidade para avaliar a disseminação das informações por meio dos retuítes, ou seja, quando um usuário compartilha uma publicação em sua rede. Além disso, o alcance das mensagens falsas é significativamente maior.
Enquanto conteúdos verdadeiros costumam atingir cerca de 1 mil pessoas, as desinformações mais impactantes podem alcançar até 100 mil leitores. Esse fator torna a dinâmica de viralização ainda mais intensa, já que a propagação ocorre de forma "pessoa a pessoa", em vez de depender de poucas fontes com grande número de seguidores, como acontece com notícias verificadas divulgadas por grandes veículos na internet.
Uma reportagem da Fórum mostrou que o Brasil é um dos países que mais caem em desinformação no mundo, segundo dados da Organização para Cooperação e Desenvolvimento Econômico (OCDE). Assim como os Estados Unidos, o país tinha ficado na última posição, onde a população mais acredita em notícias falsas entre os 40.756 entrevistados de 21 nações. Porém, ainda não foram feitos estudos de recorte social.
LEIA MAIS: Brasil é o país que mais cai em fake news no mundo, segundo a OCDE
Por que informações falsas são virais
Quando a desinformação é feita para furar a bolha dos infectados é quando também surge o perigo. A reportagem da Fórum perguntou ao especialista em redes sociais Sérgio Amadeu como as grandes empresas de tecnologias adquirem lucro através do ódio e da desinformação e assim fomentam a viralização. O sociólogo destacou que as plataformas atuam numa certa “economia da atenção”, um conceito do economista Herbert A. Simon em 1970, e que hoje descreve a política econômica das big techs.
“Elas querem que na rede proliferem conteúdos que são mais chamativos, ou seja, mais espetaculares. E o que tem ocorrido é que os algoritmos são organizados para poder privilegiar os discursos espetaculares. Não necessariamente o discurso verdadeiro e muito menos o discurso que traz características mais completas da realidade”, destacou.
As corporações que controlam as redes sociais online retiram o perfil das pessoas, “coletam dados das ações que as pessoas têm na rede para decodificar ou para conhecer o comportamento, os gostos, os interesses dessas pessoas. E com base nisso, elas oferecem conteúdos que são mais propensos a chamar a atenção dessas pessoas”, completa.
“Privilegia os discursos simplistas em tons exagerados. E, obviamente, são componentes da desinformação que interessam a extrema direita. É por isso que as big techs querem manter as pessoas num nível de engajamento e de presença na plataforma grande, porque, num nível grande, além de conhecer melhor também o que interessa às pessoas, as pessoas podem estar mais tempo disponíveis para receber anúncios e conteúdos”
LEIA MAIS: A Meta é desinformar: as contradições de Zuckerberg, a economia da atenção e a 'ditadura do capital'
Abaixo, a Fórum disponibiliza o estudo completo da PLOS ONE, na versão inglês: