A Inteligência Artificial (IA) avança e, com ela, seus usos para fins prejudiciais. O último caso a viralizar foi o de Hanna Gomes, 34, e sua mãe, Karla Pinto, 50, que quase caíram em um golpe com deepfake e deepvoice.
Na ocasião, ocorrida em 17 de janeiro e divulgada nesta quarta-feira (14), Karla recebeu uma ligação de Hanna logo após estar pessoalmente com a filha. No vídeo, o rosto e a voz de Hanna, pedindo R$ 600 emprestados à mãe. No entanto, Karla, que é advogada, suspeitou da situação a partir de alguns detalhes: a blusa que "a filha" usava no vídeo era diferente da que estava usando há pouco tempo; a conta para receber a transferência seria de um amiga de Hanna e, por fim, ela não havia chamado a mãe pelo apelido carinhoso que costumavam usar.
Te podría interesar
Karla questionou os golpistas, que encerraram a ligação. Por estar atenta, a advogada escapou de um golpe. No entanto, recorrentemente, muitas pessoas acabam caindo e sendo prejudicadas. Abaixo, veja algumas dicas para se prevenir.
Dicas para se prevenir de golpes com IA
A atitude de Karla ao reparar pequenos detalhes na filha, como o tipo de blusa e a forma como estava falando com a mãe, são boas dicas para se prevenir. Esteja atento a coisas específicas sobre a pessoa que estaria te ligando para reparar em falhas e descobrir o golpe.
Te podría interesar
Estar atento às informações bancárias da conta que vai receber a transferência também é muito importante, pois ali podem contar alguns erros que vão te ajudar a suspeitar da fraude.
Outra dica é criar uma palavra-chave com pessoas próximas para que durante uma ligação suspeita você consiga identificar se é realmente a pessoa ou golpe.
A qualidade de som e imagem do vídeo também podem ajudar a descobrir o golpe. Imagem muito perfeita (que não parece real), falta de sincronia entre a fala e a imagem e a qualidade ruim podem ser indícios de deepfake e deepvoice.
Como os golpes com IA acontecem
As tecnologias de deepfake, que utiliza IA para trocar ou criar rostos, e deepvoice, que manipula e consegue reproduzir uma voz idêntica a de outra pessoa, são utilizadas para criar golpes que simulam muito bem a realidade.
No caso de Hanna, ela suspeita que eles utilizaram suas redes sociais, onde costuma aparecer em vídeos dando aulas, para capturar suas imagens e fazer a simulação em vídeo.
A partir da imagem de uma pessoa, já é possível criar um vídeo ou uma foto dela em outro contexto. Em janeiro deste ano, o jornalista Pedro Bial denunciou o vídeo de uma empresa que utilizou sua imagem, através de deepfake, para criar uma propaganda de produtos para a calvície. O vídeo circulou nas redes sociais da Meta, mesmo a tecnologia sendo proibida.