O que o Brasil quer da Inteligência Artificial (IA)? Essa pergunta ganha uma dimensão ainda maior em um ano de eleições municipais. Aspectos como ética, transparência, desinformação e privacidade dão o tom dos debates em curso. O tema transita nos Três Poderes da República e também na sociedade civil.
Medidas do Judiciário sobre IA
No judiciário, o uso da IA tem sido tratado pelo Tribunal Superior Eleitoral (TSE) desde 2022. A Corte Eleitoral tem implementado diversas iniciativas para o uso dessas ferramentas para tentar garantir a integridade e a transparência das eleições. O propósito dessas ações é combater a desinformação, melhorar a eficiência do processo eleitoral e garantir a segurança dos dados dos eleitores.
Te podría interesar
Programa de enfrentamento à desinformação: criado para combater a disseminação de notícias falsas que podem influenciar negativamente o processo eleitoral. Usa ferramentas de IA para monitorar redes sociais e identificar rapidamente conteúdos falsos ou enganosos. O programa conta com parcerias com plataformas como Facebook, Instagram, X e WhatsApp para identificar e remover conteúdo problemático. Saiba mais aqui.
Sistema de alerta de desinformação: instituído para informar os eleitores sobre a veracidade de informações relacionadas ao processo eleitoral. Usa algoritmos de IA para verificar informações disseminadas online e emitir alertas sobre potenciais notícias falsas. O sistema também permite que os eleitores denunciem conteúdos suspeitos diretamente ao TSE. Saiba mais aqui.
Te podría interesar
Monitoramento de redes sociais: faz o monitoramento das redes sociais para detectar comportamentos coordenados e anômalos que possam indicar a manipulação de informações. Usa ferramentas de IA e aprendizado de máquina para analisar grandes volumes de dados em tempo real, identificar padrões suspeitos e acionar medidas preventivas.
Parcerias com plataformas digitais: com o objetivo de colaborar com empresas de tecnologia para a rápida remoção de conteúdos falsos e garantir a transparência das informações. Conta com a adesão do Google, Facebook, X, TikTok e outras plataformas para desenvolver e implementar mecanismos de combate à desinformação.
Campanhas de educação digital: para educar os eleitores sobre como identificar notícias falsas e a importância de verificar a veracidade das informações antes de compartilhá-las. Usa campanhas publicitárias, workshops e materiais educativos distribuídos em escolas, universidades e meios de comunicação.
Aplicativo Pardal: para facilitar a denúncia de irregularidades eleitorais por parte dos eleitores. O aplicativo permite que os cidadãos registrem denúncias de propaganda eleitoral irregular e outras infrações, enviando-as diretamente para a Justiça Eleitoral. A IA é usada para analisar e categorizar as denúncias recebidas.
Saiba mais aqui.
Sistema Alice: para analisar os dados das urnas eletrônicas e garantir a integridade dos resultados eleitorais.Utiliza IA para realizar a verificação automática dos boletins de urna e comparar com os resultados divulgados, identificando possíveis inconsistências.
Certificação Digital: para garantir a segurança e a autenticidade das informações e comunicações eletrônicas durante o processo eleitoral. Implementa certificados digitais e criptografia avançada para proteger os dados dos eleitores e das urnas eletrônicas.
Saiba mais aqui.
Projetos no Congresso Nacional sobre IA
Há vários projetos de lei relacionados à regulação da IA em tramitação no Congresso Nacional. Essas matérias refletem um esforço abrangente para estabelecer um marco regulatório que equilibre a inovação tecnológica com a proteção de direitos fundamentais e a promoção de valores democráticos. A tramitação conjunta de múltiplos projetos mostra a complexidade e a abrangência do tema, envolvendo várias áreas do direito e da sociedade.
PL 21/2020: visa criar um marco legal para o desenvolvimento e uso da IA no Brasil. Ele estabelece princípios, direitos, deveres e instrumentos de governança para a IA, abrangendo tanto o setor público quanto o privado.
PL 2338/2023: inclui disposições para assegurar os direitos dos criadores e intérpretes de obras artísticas e intelectuais, evitando a subtração de direitos. Tramita em conjunto com outros projetos correlatos e é examinado pela Comissão Temporária sobre Inteligência Artificial no Brasil.
PL 3592/2023: Propõe diretrizes para o uso de imagens e áudios de pessoas falecidas por meio de IA, com o objetivo de preservar a dignidade, a privacidade e os direitos dos indivíduos mesmo após a morte. Este projeto também está tramitando conjuntamente com outros projetos relacionados.
Comissão de Juristas sobre Regulação da IA: Uma comissão de juristas elaborou um relatório abrangente sobre a regulação da IA, que serviu de base para várias propostas legislativas. Este relatório foi considerado um "embrião" da regulação de IA no Brasil e incluiu contribuições de especialistas de diversos setores.
Medidas do Governo Lula sobre IA
O governo Lula tem adotado várias medidas para promover e regular o uso da IA no país. Essas iniciativas visam fomentar a inovação, garantir a ética e a transparência no uso dessas ferramentas e proteger os direitos dos cidadãos.
Estratégia Brasileira de Inteligência Artificial (EBIA): lançada em 2021, tem como objetivo orientar as ações do governo federal para o desenvolvimento e o uso ético e responsável da IA no Brasil. Abrange várias áreas, incluindo pesquisa, desenvolvimento, inovação, educação, capacitação, governança, regulação e ética. Proporciona fomento à pesquisa em IA, incentivo à formação de profissionais qualificados, criação de ambientes regulatórios flexíveis e promoção da colaboração entre governo, academia e setor privado. Saiba mais aqui.
Marco Legal da Inteligência Artificial: o governo tem trabalhado em um marco legal para regulamentar o uso da IA no país. Em março deste ano, o presidente Lula pediu ao Conselho Nacional de Ciência e Tecnologia (CCT) que elabore até junho de 2024 um Plano de Inteligência Artificial para o Brasil. Este marco visa estabelecer princípios, direitos e deveres relacionados ao desenvolvimento e à aplicação da IA.
Parcerias e Colaborações: O governo federal tem estabelecido parcerias com instituições acadêmicas e empresas de tecnologia para fomentar a inovação e a aplicação da IA em diferentes setores. Já foram firmadas colaborações com empresas como IBM e Microsoft para projetos de pesquisa e desenvolvimento, bem como programas de capacitação em IA para servidores públicos e estudantes. Saiba mais aqui.
Capacitação e Educação: implementação de programas de capacitação em IA para estudantes e profissionais, com foco em habilidades técnicas e competências éticas. Oferecimento de cursos online, workshops e seminários sobre IA em parceria com universidades e plataformas de educação digital.
Fomento à Inovação e Empreendedorismo: Apoio a startups de IA com criação de programas que incluem financiamento, mentorias e acesso a infraestrutura tecnológica. Além de concessão de incentivos fiscais para empresas que investem em pesquisa e desenvolvimento de IA.
Regulação e Ética: Desenvolvimento de diretrizes éticas para o uso de IA, visando assegurar que as tecnologias sejam desenvolvidas e utilizadas de maneira responsável e inclusiva. Também estabelecimento de conselhos e comitês para monitorar e avaliar o impacto das tecnologias de IA na sociedade, incluindo a proteção de dados e a privacidade dos usuários.
Essas medidas refletem o compromisso do governo brasileiro em posicionar o país como um líder no desenvolvimento e na aplicação responsável da inteligência artificial, ao mesmo tempo em que protege os direitos dos cidadãos e promove a inovação tecnológica.
Iniciativa da sociedade civil sobre IA
Foi ao ar esta semana uma consulta pública que lançou a pergunta que abre essa matéria: O que o Brasil quer da Inteligência Artificial?
A iniciativa é do Conselho de Inteligência Artificial e Sociedade (CIAS), um projeto do Instituto de Tecnologia e Sociedade do Rio (ITS Rio) e da Associação Brasileira de Internet (Abranet).
A apresentação do projeto observa que a pergunta-chave precisa ser respondida por todos nós. "Não pode haver regulação da IA antes disso. E a resposta será construída por meio da participação ampla, geral e irrestrita de todos", diz o site da consulta.
O CIAS foi criado justamente com a missão de organizar a consulta pública que quer ouvir a sociedade para definir que tipo de regulação da inteligência artificial é adequada para o país. Os integrantes do conselho vêm de diversos setores da sociedade. No entanto, esse grupo é aberto à adesão e participação de todos que querem fazer parte desse importante processo.
A partir do momento que os brasileiros que participarem da consulta o CIAS vai elaborar de forma participativa e aberta o texto legal da possível regulação da inteligência artificial no Brasil. "Esse será o texto da sociedade brasileira", afirma.
"Afinal, com a chegada da Inteligência Artificial generativa, essa tecnologia pode ter um impacto na vida de todos nós. Por isso, precisamos ouvir amplamente os segmentos da sociedade brasileira. Pode ter certeza: todos que participarem da consulta serão ouvidos e farão parte desse importante processo!", informa a página.
A página informa ainda que todas as contribuições serão analisadas, tabuladas e enviadas para o Congresso Nacional e outras autoridades. Além disso, os pontos apresentados nas contribuições poderão gerar artigos, debates, análises, posts, vídeos, artigos de jornal e programas de TV, sempre com atribuição de crédito.
Debate sobre o Uso da IA em outros países
O uso da IA em campanhas eleitorais é um tema que desperta inquietação em vários países. Nos Estados Unidos, essa a preocupação com o uso de IA em eleições aumentou após as eleições de 2016, quando houve alegações de interferência estrangeira e manipulação de eleitores através de plataformas digitais. Desde então, houve um aumento no uso de IA para analisar padrões de comportamento eleitoral e para campanhas direcionadas. No entanto, há uma crescente pressão por uma regulamentação mais rígida para garantir a integridade do processo eleitoral.
A União Europeia (UE) está à frente na tentativa de regular o uso de IA. O Regulamento Geral sobre a Proteção de Dados (GDPR) já impõe restrições sobre como os dados podem ser usados, e há esforços para desenvolver diretrizes específicas sobre o uso de IA em campanhas eleitorais. A Comissão Europeia também está trabalhando em um novo regulamento sobre IA, que incluirá disposições para mitigar os riscos associados ao seu uso em eleições.
Na Índia, a Comissão Eleitoral está explorando o uso de IA para melhorar a eficiência do processo eleitoral e garantir a integridade das eleições. No Reino Unido também está debatendo o uso de IA nas eleições, especialmente em relação à transparência e ao combate à desinformação.
Humanos para identificar uso de IA
Detectar se uma foto ou vídeo foi gerado por inteligência artificial é um desafio crescente. Os humanos desempenham um papel crucial nesse processo.
Ferramentas de detecção, desenvolvidas tanto comercialmente quanto em laboratórios de pesquisa, estão disponíveis para ajudar nessa tarefa. Para utilizá-las, basta carregar ou vincular a mídia suspeita e o detector indicará a probabilidade de que ela tenha sido gerada por IA.
No entanto, seus próprios sentidos e o conhecimento de certos sinais reveladores são igualmente importantes ao analisar mídias suspeitas de serem deepfakes (técnica avançada de síntese de mídia digital que utiliza IA e aprendizado profundo (deep learning) para criar imagens, vídeos e áudios falsificados, mas que parecem extremamente realistas.
Embora as regulamentações para deepfakes, especialmente em períodos eleitorais, não acompanhem a rápida evolução da IA, é essencial encontrar métodos eficazes para verificar a autenticidade de imagens, áudios e vídeos.
Ferramenta para identificar uso de IA
Em reportagem desta sexta-feira (7) publicada pelo jornal britânico The Guardian, o professor Siwei Lyu, da Universidade de Buffalo, desenvolveu o DeepFake-o-meter, uma ferramenta gratuita e de código aberto que reúne mais de uma dúzia de algoritmos de diversos laboratórios de pesquisa. Permite que usuários façam upload de mídias suspeitas e obtenham uma análise sobre a probabilidade de serem geradas por inteligência artificial.
O DeepFake-o-meter evidencia tanto os benefícios quanto as limitações das ferramentas de detecção de IA. Em testes com deepfakes conhecidos, os algoritmos ofereceram avaliações variando de 0% a 100% de probabilidade de serem criações de IA. Essa variabilidade nos resultados reflete a forma como os algoritmos são treinados, podendo apresentar vieses.
Desde seu lançamento público em janeiro deste ano, o DeepFake-o-meter tem como objetivo principal auxiliar jornalistas, pesquisadores, investigadores e o público em geral na verificação da autenticidade de mídias. Está em desenvolvimento métodos para classificar os diferentes algoritmos de detecção, indicando qual funciona melhor em cada situação específica. Usuários também podem optar por compartilhar as mídias analisadas com a equipe de pesquisa para aprimorar ainda mais a detecção de deepfakes.
Usando o detector de deepfake
Uma chamada robocall que circulou em New Hampshire usando uma voz gerada por IA do presidente Joe Biden encorajou os eleitores a não comparecerem às primárias democratas, um dos primeiros grandes casos de deepfake nas eleições dos EUA deste ano.
Robocall é uma chamada telefônica automatizada que usa uma gravação pré-gravada ou uma voz gerada por computador para transmitir uma mensagem a um grande número de destinatários. Essas chamadas são frequentemente utilizadas para campanhas de marketing, alertas públicos, lembretes de compromissos e, em alguns casos, atividades fraudulentas.
Quando o áudio com a suposta voz de Biden foi submetido ao DeepFake-o-meter executou um curto trecho da robocall, apenas um dos detectores indicou mais de 50% de probabilidade de ser IA. Esse tipo de gravação é mais difícil de identificar porque depende apenas da audição, e são mais fáceis de gerar porque há muitos exemplos das vozes de figuras públicas que a IA pode usar para fazer a voz de uma pessoa dizer o que quiserem.
Mas existem algumas pistas na robocall, e em deepfakes de áudio em geral, para ficar atento. Áudio gerado por IA frequentemente tem um tom geral mais plano e é menos conversacional do que como normalmente falamos. Você não ouve muita emoção. Pode não haver sons de respiração adequados, como inspirar antes de falar.
Preste atenção também aos ruídos de fundo. Às vezes não há ruídos de fundo quando deveria haver. Ou, no caso da robocall, há muito ruído misturado ao fundo quase para dar uma impressão de realidade que na verdade soa artificial.
Desvendando fotos manipuladas por IA
Para avaliar uso de IA em fotos, ajuda ampliar e examinar de perto para identificar inconsistências com o mundo físico ou bizarrices humanas, como edifícios com linhas tortas ou mãos com seis dedos. Pequenos detalhes como cabelos, bocas e sombras podem fornecer pistas sobre a autenticidade da imagem.
Mãos costumavam ser um indicativo mais claro para imagens geradas por IA porque frequentemente acabavam com apêndices extras, embora a tecnologia tenha melhorado e isso esteja se tornando menos comum.
Vídeos são mais difíceis de falsificar
Vídeos, especialmente com pessoas, são mais difíceis de falsificar do que fotos ou áudios. Em alguns vídeos gerados por IA sem pessoas, pode ser mais difícil determinar se as imagens são reais, embora esses não sejam "deepfakes" no sentido em que o termo normalmente se refere a falsificações ou alterações de semelhanças de pessoas.
Os sinais visuais no vídeo incluem piscadas de olhos não naturais que mostram alguns artefatos de pixel. Algoritmos de detecção específicos observam os lábios, pois as ferramentas atuais de vídeo de IA geralmente mudam principalmente os lábios para dizer coisas que a pessoa não disse. É nos lábios que a maioria das inconsistências é encontrada.
Um exemplo seria se um som de letra exige que o lábio esteja fechado, como um B ou um P, mas a boca do deepfake não está completamente fechada. Quando a boca está aberta, os dentes e a língua parecem estranhos.
Relembre 3 casos famosos de deepfake
Barack Obama: Em 2018, um vídeo falso do ex-presidente dos EUA foi criado pela equipe do cineasta Jordan Peele para demonstrar os perigos da tecnologia deepfake. No vídeo, Obama é mostrado fazendo comentários que ele nunca fez, com a voz e os movimentos faciais de Peele sendo usados para controlar a simulação.
Mark Zuckerberg: Um vídeo deepfake do CEO do Meta, Mark Zuckerberg, foi criado para mostrar ele falando sobre o controle de dados pessoais dos usuários do Facebook de uma maneira sinistra. Este vídeo foi feito para destacar questões de privacidade e controle de dados na era digital.
Tom Cruise: Em 2021, uma série de vídeos deepfake do ator Tom Cruise se tornou viral no TikTok. Esses vídeos foram tão convincentes que muitas pessoas acreditaram que era realmente o ator fazendo truques de mágica e outras atividades cotidianas. Eles foram criados pelo artista visual Chris Ume. Assista aqui.