DESINFORMAÇÃO

Deepfakes: são poucas pessoas que ainda identificam vídeos falsos feitos por IA, mostra pesquisa

Ultrarealistas, imagens e vídeos favorecem desinformação, golpes financeiros e narrativas da extrema direita

Créditos: Marcello Casal Jr/Agência Brasil
Escrito en TECNOLOGIA el

Menos de 1% dos estadunidenses e europeus sãi capazes de identificar com precisão conteúdos falsos gerados por inteligência artificial (IA), como imagens e vídeos manipulados. A pesquisa, realizada pela iProov e divulgada em 12 de fevereiro de 2025, destaca que a vulnerabilidade é observada em todas as faixas etárias, mas preocupa especialmente entre pessoas acima de 55 anos, muitas das quais não conhecem o termo "deepfake".

No Brasil, 60% dos brasileiros, por exemplo, ainda não sabem o que é “deepfake”, segundo uma pesquisa feita pela Kaspersky, e a maioria dessas pessoas compartilham imagens e vídeos falsos com amigos e outros usuários nas redes sociais, o que proporciona a disseminação em “vírus” da desinformação, como explica uma reportagem da Fórum

O alastramento de informações falsas pode ser descrito pelos mesmos modelos matemáticos usados para simular a propagação de doenças, conforme o seu potencial viral.

LEIA MAIS: Informações falsas e teorias da conspiração: entenda como desinformações se propagam

Inclusive, a pesquisa divulgada no último dia 12 confirma que a deepfake é mais viral que uma informação falsa. Apenas 9% dos entrevistados conseguiram reconhecer todos os vídeos falsos em uma pesquisa realizada com 2 mil consumidores no Reino Unido e nos EUA. 

De acordo com o estudo, 20% dos participantes nunca haviam ouvido falar sobre deepfakes, com o desconhecimento aumentando para aqueles com mais de 55 anos, o que os coloca em uma posição de maior vulnerabilidade. Após conhecerem essa tecnologia, 49% dos entrevistados relataram uma queda na confiança nas redes sociais. O  levantamento também constatou que, mesmo cientes de possíveis fraudes, raramente os usuários tomam ações preventivas.

A integração de deepfakes com métodos tradicionais de ataques cibernéticos está se tornando uma ameaça significativa. O uso de face swaps combinado com emuladores permite que os criminosos realizem ataques em poucos minutos. A pesquisa também revelou a existência de mais de 60 grupos dedicados à criação de imagens sintéticas, com tamanhos que variam de 100 a mais de 100 mil membros, sendo que um dos maiores possui 114 mil participantes espalhados pelo mundo.

Fake news do Pix aumentou fraudes e abriu espaço para 1,7 mil golpes

Em janeiro, uma onda de desinformação sobre o Pix tomou conta das redes sociais. A fake news mais difundida foi sobre uma suposta “taxa” no serviço, o que acabou alimentando fraudes em massa. A desinformação acabou facilitando a veiculação de mais de 1.770 anúncios falsos nas plataformas da Meta, dona do WhatsApp, Facebook e Instagram, segundo levantamento do  Laboratório de Estudos de Internet e Redes Sociais (NetLab), da Universidade Federal do Rio de Janeiro (UFRJ).

De acordo com a pesquisa, realizada entre os dias 10 e 21 de janeiro, período marcado por uma onda de desinformação acerca da fiscalização do Pix devido à nova norma da Receita Federal, as regras de moderação de conteúdo da Meta favoreceram a disseminação de anúncios fraudulentos sobre temas financeiros e políticas públicas. Dada a maior vulnerabilidade da população diante das fake news, golpistas aproveitaram a oportunidade para cometer fraudes, encontrando nas redes da Meta um ambiente favorável para suas ações.

O estudo, intitulado “Danos causados pela publicidade enganosa na Meta”, apontou que 70% das publicações tinham algum tipo de manipulação feita com inteligência artificial (IA), incluindo vídeos adulterados envolvendo políticos e jornalistas. Ao todo, 718 postagens redirecionavam para sites fraudulentos que se passavam por plataformas de órgãos públicos, exibindo logomarcas da Caixa Econômica Federal e do Banco Central (BC).

LEIA MAIS: Onda de fake news de bolsonaristas sobre Pix abriu espaço para mais de 1,7 mil golpes

Archivos adjuntos

Reporte Error
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar