Divulgado em janeiro, um estudo científico da AI Safety Report feito em parceria com a Organização das Nações Unidas (ONU), a União Europeia (UE), a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e mais de 90 especialistas, alertou para os riscos da inteligência artificial (IA) e as falhas nos métodos de gerenciamento das tecnologias.
O documento destaca que os modelos de IA se desenvolveram rapidamente nos últimos anos, tornando-se capazes de programar, gerar imagens hiper-realistas e tomar decisões de forma autônoma. No entanto, a imprevisibilidade desses sistemas preocupa os pesquisadores. Ainda não existem métodos confiáveis para quantificar o risco de falhas inesperadas, o que aumenta a incerteza sobre seus impactos no futuro.
A falta de conhecimento detalhado sobre os processos internos dos modelos de IA impede uma estimativa precisa de suas capacidades. Conforme apontado no relatório, os especialistas “ainda não podem explicar por que esses modelos geram determinadas respostas, nem qual é a função da maioria de seus componentes internos”.
Falta de transparência aumenta dúvidas sobre riscos
"O avanço da IA tem sido impressionante, mas precisamos urgentemente de regulamentações que garantam segurança e transparência", destaca Yoshua Bengio, professor da Universidade de Montreal e presidente do comitê que coordenou o relatório. Como as capacidades da IA podem ser transformadas drasticamente a partir de novos ajustes e ferramentas, a Al Safety Report ressalta a complexidade de criar normas regulatórias consistentes.
A dificuldade de garantir a autenticidade de conteúdos gerados por modelos de código aberto, devido à possibilidade de modificações feitas pelos usuários, também é destacada pelos pesquisadores. O relatório identifica ainda mais barreiras à regulamentação da IA:
- Não há métodos eficazes para calcular os riscos de falhas inesperadas, já que todas as soluções propostas ainda são teóricas;
- A falta de transparência das big techs e das empresas de IA, tanto em seus algoritmos quanto em sua estrutura institucional, dificulta a responsabilização legal e enfraquece a governança do setor.
Dificuldades de regulamentação e retrocessos
Em agosto de 2024, foi implementado o Regulamento Europeu 2024/1689, conhecido como AI Act, que foi pioneiro em estabelecer um conjunto de normas detalhadas para o desenvolvimento, implementação e utilização de sistemas de inteligência artificial na União Europeia. A medida é alvo de críticas por extremistas. Nos EUA, Donald Trump também revogou uma lei importante de 2023, assinada por Joe Biden sobre a IA, que buscava reduzir os riscos que a inteligência artificial representa para os consumidores, trabalhadores e a segurança nacional. Além disso, o republicano concentra poder com 11 bilionários de empresas de tecnologia à frente de cargos do governo, uma "biliocracia".
LEIA MAIS: Trump revoga regulação que reduzia riscos da Inteligência Artificial
No Brasil, o Senado Federal aprovou em dezembro do ano passado um marco regulatório histórico para a inteligência artificial no Brasil, o PL 2338/2023. A proposta, que ainda enfrenta obstáculos na Câmara dos Deputados, estabelece um conjunto de normas para o desenvolvimento e utilização de sistemas de IA em todo o território nacional.
O projeto, apresentado em 2023 pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), integra as prioridades que o parlamentar buscou aprovar antes do término de seu mandato à frente da presidência da Casa, previsto para fevereiro. Como mostrou a Fórum, organizações da sociedade civil, representadas por mais de 30 conjuntos da Coalizão Direitos na Rede, alertaram para a necessidade de aprimoramentos urgentes no texto. As entidades sinalizaram que a versão atual do projeto continha retrocessos que podiam comprometer a proteção dos direitos dos cidadãos no ambiente digital.
A principal divergência ocorre justamente em relação à classificação de algoritmos de redes sociais como sistemas de alto risco, uma das partes mais importantes do projeto e enfatizada pelas entidades. As big techs ou gigantes da tecnologia, como Google, Microsoft e Meta, ficaram de fora da categoria e agora o lobby será favorecido.
LEIA MAIS: Senado aprova regulamentação, mas "há pontos que precisam ser revistos”, analisa especialista
Veja as principais conclusões do estudo da Al Safety Report
- Avanços rápidos e imprevisíveis: A IA de propósito geral evoluiu rapidamente nos últimos anos, com sistemas cada vez mais sofisticados capazes de programação avançada, geração de imagens hiper-realistas e até planejamento autônomo.
- Riscos crescentes: Os perigos associados à IA incluem manipulação da opinião pública, uso malicioso para ataques cibernéticos, riscos à privacidade e ameaças ao mercado de trabalho. A possibilidade de ataques biológicos e químicos facilitados por IA também está sendo investigada.
- Dilema dos formuladores de políticas: O ritmo acelerado da IA torna difícil para governos e reguladores tomarem decisões baseadas em evidências concretas, criando um dilema entre agir preventivamente ou esperar por comprovações mais sólidas dos riscos.
- Impacto no mercado de trabalho: A IA tem potencial para substituir funções humanas em diversos setores, criando desafios econômicos e sociais significativos, apesar da possibilidade de novos empregos surgirem.
- Monopólio e desigualdade global: O desenvolvimento da IA está concentrado em poucas empresas e países ricos, aumentando desigualdades e tornando muitas nações dependentes dessa tecnologia estrangeira. Inclusive, uma matéria da Fórum trouxe o relatório da Oxfam que comprova o aumento da pobreza no mundo em virtude da concentração de renda na mão de donos de empresas de tecnologia. Leia mais: Riqueza de milionários aumentou três vezes mais rápido em 2024.
- Impactos ambientais: O treinamento e uso de modelos avançados consomem grandes quantidades de energia e água, ampliando impactos ambientais.
No entanto, as situações apresentadas ainda são reversíveis, segundo os especialistas, que também apontaram possíveis soluções, já que "a IA não 'acontece conosco'; as escolhas feitas pelas pessoas determinam o seu futuro”. Diz o relatório:
- Estabelecer uma regulação internacional: especialistas recomendam cooperação global para mitigar os riscos da IA e garantir que seu desenvolvimento beneficie a sociedade.
- Aprimoramento das técnicas de mitigação: métodos como treinamento adversarial, monitoramento de modelos e aprimoramento da transparência nas empresas de IA ainda são limitados, mas devem ser implementados.
- Segurança no desenvolvimento e uso da IA: reguladores e empresas devem estabelecer padrões rigorosos de segurança para evitar que a tecnologia seja usada para fins maliciosos.
O relatório será um dos temas centrais do AI Action Summit, em Paris, que reunirá líderes globais, empresas de tecnologia e organizações da sociedade civil para discutir estratégias de mitigação de riscos. A expectativa é que o evento traga diretrizes consistentes para regulamentar vários tipos de inteligência artificial a nível global.