As redes sociais foram inundadas por imagens falsas e sexualmente explícitas de Taylor Swift, criadas por Inteligência Artificial (IA) gerando indignação e reacendendo debates sobre regulamentação.
Nos últimos dias, uma onda de imagens falsas e sexualmente explícitas da cantora, geradas por Inteligência Artificial (IA), chocou as redes sociais. Uma delas alcançou a incrível marca de 47 milhões de visualizações no X (antigo Twitter) antes de ser removida na última quinta-feira (1). O episódio reacendeu o debate sobre a necessidade de legislação para punir plataformas e regular tecnologias que disseminam conteúdo nocivo.
Te podría interesar
A explosão de deepfakes e preocupações crescentes
Embora deepfakes pornográficos, que são vídeos falsos mas extremamente realistas, não sejam novidade, a preocupação agora gira em torno do uso de Inteligência Artificial generativa, que pode potencializar uma explosão incontrolável de conteúdos prejudiciais. Uma pesquisa citada pela revista Wired revelou que nos primeiros nove meses de 2023, 113 mil vídeos deepfake foram carregados nos sites pornográficos mais populares.
A congressista democrata Yvette Clarke, defensora de uma lei para criminalizar o uso não consensual de imagens em situações sexualizadas, destacou que "com os avanços na IA, criar deepfakes ficou mais fácil e barato". O legislador republicano Tom Keane alertou para a necessidade de implementar salvaguardas diante do avanço acelerado da tecnologia de Inteligência Artificial.
Te podría interesar
Reações e respostas
Pela primeira vez na história, a Casa Branca se manifestou sobre a urgência de combater a pornografia artificial. Nas redes sociais, fãs de Taylor Swift reagiram com indignação, inundando o X com mensagens de protesto e iniciativas como a hashtag "Proteja Taylor Swift" para dificultar a busca por conteúdo explícito. A plataforma X, em resposta, bloqueou pesquisas relacionadas à cantora.
O chefe de operações comerciais do X, Joe Benarroch, anunciou uma ação temporária para priorizar a segurança, enquanto Elon Musk, dono do X, comprometeu-se a contratar cem novos moderadores para evitar o compartilhamento em massa dessas imagens. A Reality Defender, empresa de segurança cibernética, identificou com 90% de confiança que as imagens foram criadas por meio de uma tecnologia de difusão, amplamente acessível via IA.
Legislação e combate aos deepfakes e iniciativas
Legisladores estão agora focados não apenas em celebridades, mas também em possíveis consequências mais amplas da IA, incluindo a criação realista de imagens de crianças em situações prejudiciais. A perspectiva de processar esses crimes levanta desafios complexos quanto à ilegalidade dessas imagens e à proteção das vítimas.
Empresas começam a propor ferramentas para combater os deepfakes. A agência de talentos WME anunciou uma parceria com a Vermillio, visando proteger seus clientes contra o uso indevido de suas imagens. A Vermillio desenvolveu a plataforma Trace ID, usando IA para rastrear e proteger imagens digitais, permitindo a remoção ou compensação financeira, com a empresa recebendo uma parte dessa receita.
O escândalo de deepfakes envolvendo Taylor Swift destaca a urgência de regulamentações efetivas e tecnologias de combate à disseminação de conteúdo falso e prejudicial. A sociedade e as plataformas digitais estão agora diante do desafio de encontrar um equilíbrio entre liberdade de expressão, proteção da privacidade e prevenção de abusos da tecnologia de inteligência artificial.