Na reta final da campanha do segundo turno para a presidência da Argentina, vídeos que empregavam Inteligência Artificial para manipular os rostos dos candidatos Javier Milei e Sergio Massa circularam amplamente pelas redes sociais. Essa foi a primeira vez que as IAs foram utilizadas em eleições democráticas. No último domingo (19), Milei foi eleito presidente do país argentino por 55,69% dos votos contra 44,3%.
Membros de grupos de extrema direita na Argentina, do partido de Milei, La Libertad Avanza, divulgaram semana passada um vídeo que alegava o consumo de cocaína por Sérgio Massa. O vídeo manipulado começou a repercutir rapidamente e a campanha de Massa precisou refutar o conteúdo do vídeo a público.
Te podría interesar
Os seguidores de Milei utilizaram inteligência artificial para produzir um deepfake, conforme declarou o peronista. O vídeo estava em circulação desde 2016 nas redes sociais e foi adulterado pela sobreposição do rosto de Sérgio Massa sobre o rosto original da pessoa.
A inteligência artificial não foi utilizada exclusivamente pelos seguidores de Milei. Apoiadores de Sérgio Massa também chegaram a compartilhar peças produzidas com essa tecnologia, caracterizando o adversário como o grande vilão da Argentina ao vangloriar Margareth Thatcher. No entanto, ainda há uma diferença significativa entre os dois conteúdos. É possível perceber que o primeiro é mais realista que o segundo. O que seria então o recurso da deepfake?
Te podría interesar
À Revista Fórum, Talita Magnolo, doutora em Comunicação pela UFJF e também coordenadora do projeto "MemórIA: promoção da educação midiática diante da reconstrução do passado através da Inteligência Artificial", explica sobre as deepfakes. “É uma técnica que consiste em criar conteúdos aparentemente verdadeiros e autênticos, mas, que, na verdade, são falsos. Normalmente é feita através do uso de programas de Inteligência Artificial que alteram o som e a imagem deixando-os o mais próximo do original possível”.
A pesquisadora destaca que essas imagens manipuladas claramente podem induzir a opinião pública. “Elas representam uma ameaça à democracia e isso acontece na forma de desinformação e fake news ao dialogar com a memória coletiva da sociedade”, pois “pelo fato de estarem sendo usadas com cada vez mais frequência e sem qualquer regulamentação, as imagens geradas por deepfake podem alterar a relação que temos com o nosso passado e isso influencia diretamente a relação que temos com nosso presente”.
Para ela, isso pode ter influenciado no resultado das eleições da Argentina, um país que já sofreu historicamente com uma ditadura que durou 45 anos, e foi capaz de eleger Milei, assim como o Brasil elegeu Jair Bolsonaro. “Neste ano, presenciamos algo muito parecido na Argentina que vivenciou, também, durante muito tempo, um período ditatorial, mas, recentemente elegeu um candidato extremamente conservador.” Um estudo conduzido pela Avaaz, mostra, por exemplo, que 90% dos eleitores de Bolsonaro acreditaram em fake news nas eleições de 2018.
Regulamentação das IAs
Especialistas indicam que a deepfake é um dos últimos estágios da desinformação, e talvez um dos mais avançados até hoje. As tecnologias evoluem em um curto espaço de tempo, além de ficarem cada vez mais acessíveis para todos, proporcionando maiores riscos de propagação de informações falsas. Talita acredita que o melhor caminho para conter esse movimento é a regulamentação dos algoritmos.
“Algo que me preocupa, não somente com relação ao Brasil, mas pensando aqui, em uma situação global, é a falta de regulamentação para o uso da Inteligência Artificial. É claro que os avanços acontecem de forma lenta e gradual, mas acredito que este assunto deva ocupar discussões emergenciais”, ressalta.
De acordo com a coordenadora do projeto, antes mesmo das eleições presidenciais no Brasil, “já corremos o risco de presenciar tais manobras nas eleições para prefeitos e vereadores em 2024”. A pesquisadora aponta que existem algumas leis que combatem os crimes praticados na rede mundial de computadores, como as Leis Azevedo (Lei Federal nº 12.735/2012), a Lei Carolina Dieckmann (Lei Federal nº 12.737/2012), o Marco Civil da Internet (Lei Federal nº 12.965/2014) e a Lei Geral de Proteção de Dados (Leis Federais nº 13.709/2018 e 13.718/2018), mas que, no entanto, não há legislação específica para tutelar a Inteligência Artificial na internet.
“Penso que se não houver um momento de regulamentação do uso de aplicativos, plataformas e programas de IA, podemos presenciar uma grande disseminação de notícias falsas”, pontua Talita. É preciso de “uma educação midiática e a elaboração de uma postura crítica diante de tantas informações que circulam na internet”, enfatiza.
Em seu projeto, a pesquisadora atua junto às escolas públicas e privadas de Juiz de Fora, de Minas Gerais, promovendo discussões sobre o uso das plataformas de IA como ferramentas e o pensamento crítico em relação às informações disseminadas nas redes.