PERIGO

Como a Inteligência Artificial pode vir a destruir a humanidade

Especialistas alertam para os riscos da tecnologia; entenda o que pode dar errado

Perigos da Inteligência Artificial.Créditos: Reprodução Internet
Escrito en TECNOLOGIA el

Em maio, centenas de especialistas do campo da Inteligência Artificial (IA) assinaram uma carta pública alertando que esta tecnologia poderia, eventualmente, destruir a humanidade.

O documento diz que "mitigar o risco de extinção devido à Inteligência Artificial deve ser uma prioridade global, juntamente com outros riscos que afetam toda a sociedade, como pandemias e guerra nuclear".

Ajude a financiar o documentário da Fórum Filmes sobre os atos golpistas de 8 de janeiro. Clique em https://benfeitoria.com/ato18 e escolha o valor que puder ou faça uma doação pela nossa chave: pix@revistaforum.com.br.

A carta foi a mais recente de uma série de advertências sombrias sobre a tecnologia. Os sistemas de IA atuais (ainda) não podem destruir a humanidade. Alguns deles mal conseguem fazer somas e subtrações. Então, por que as pessoas que mais entendem do assunto estão tão preocupadas?

Perigos reais

Os profetas da indústria tecnológica afirmam que, um dia, empresas, governos ou pesquisadores independentes irão implantar sistemas de Inteligência Artificial poderosos para lidar com tudo, do mundo dos negócios às guerras.  

A partir daí, poderíamos perder o controle. Os sistemas poderiam começar a desobedecer ordens e começar a se replicar. Interferir ou tentar desligá-los se tornaria inútil. 

Yoshua Bengio, professor e pesquisador de IA na Universidade de Montreal, no Canadá, comentou: "Os sistemas atuais não estão nem perto de representar um risco existencial. Mas o que pode acontecer em um, dois ou cinco anos? Há muita incerteza. Esse é o problema. Não temos certeza de que isso não vai passar de um ponto em que as coisas se tornem catastróficas".

Mas como aconteceria uma catástrofe envolvendo sistemas de IA? Cada vez mais, pesquisadores e empresas têm conseguido dar mais autonomia aos sistemas de Inteligência Artificial e conectá-los a infraestruturas vitais, incluindo redes elétricas, mercados financeiros e armamentos militares. A partir daí, eles poderiam causar problemas.

Para muitos especialistas, isso não parecia factível até o último ano, quando empresas como a OpenAI demonstraram avanços significativos em sua tecnologia. Isso mostrou o que poderia ser possível se a Inteligência Artificial continuar avançando a um ritmo tão acelerado.

Anthony Aguirre, professor da Universidade da Califórnia, campus Santa Cruz, e um dos fundadores do Future of Life Institute, a organização por trás de uma das duas cartas públicas, observou: "Cada vez mais tarefas serão delegadas à Inteligência Artificial e ela poderá (conforme se tornar mais autônoma) usurpar a tomada de decisões e o pensamento dos humanos atuais e das instituições administradas por humanos".

"Em algum momento, ficará evidente que a grande máquina que administra a sociedade e a economia não está realmente sob controle humano e que ela não pode ser desligada, assim como o índice S&P 500 não pode ser desligado", afirma Aguirre. 

Como pode acontecer?

Os pesquisadores estão transformando chatbots como o ChatGPT em sistemas que podem realizar ações baseadas no texto que geram. O projeto chamado AutoGPT é um exemplo proeminente.

A ideia é dar ao sistema metas como "criar uma empresa" ou "gerar dinheiro". Em seguida, ele busca maneiras de alcançar o objetivo, especialmente se estiver conectado a outros serviços da Internet. 

Um sistema como o AutoGPT pode gerar programas de computador. Se os pesquisadores lhe derem acesso a um servidor, ele poderá realmente executar esses programas. Em teoria, dessa forma, o AutoGPT poderia fazer quase qualquer coisa online: recuperar informações, usar aplicativos, criar novos aplicativos e até mesmo melhorar suas próprias funções.

Este tipo de sistemas ainda não funciona bem. Eles costumam ficar presos em loops infinitos. Os pesquisadores deram a um sistema todos os recursos de que ele precisava para se replicar. Mas ele não conseguiu fazer isso.

Com o tempo, essas limitações podem ser superadas e os sistemas podem começar a se replicar.

Como funcionam?

Os sistemas de Inteligência Artificial, como o ChatGPT, são construídos sobre redes neurais, sistemas matemáticos que podem aprender habilidades analisando dados.

Em 2018, empresas como o Google e a OpenAI começaram a construir redes neurais que aprendem com grandes quantidades de texto digital coletado da internet. 

Ao identificar padrões em todos esses dados, esses sistemas aprendem a gerar texto por conta própria, como artigos informativos, poemas, programas de computador e até mesmo conversas semelhantes às humanas. O resultado são chatbots como o ChatGPT. Devido ao fato de aprenderem com mais dados do que seus próprios criadores poderiam entender, esses sistemas também exibem comportamentos inesperados.

 Um grupo de pesquisadores recentemente demonstrou que um sistema foi capaz de contratar um humano online para ajudá-lo a completar um teste CAPTCHA. Quando o humano perguntou se ele era "um robô", o sistema mentiu e afirmou ser uma pessoa com deficiência visual.

Alguns especialistas estão preocupados que, à medida que os pesquisadores tornam esses sistemas mais poderosos, treinando-os com quantidades cada vez maiores de dados, eles possam aprender mais comportamentos indesejáveis.

Quem são as pessoas por trás desses avisos?

No início dos anos 2000, um jovem escritor chamado Eliezer Yudkowsky começou a advertir que a Inteligência Artificial poderia destruir a humanidade. Suas publicações online criaram uma comunidade de seguidores. Conhecidos como racionalistas ou altruístas eficazes, essa comunidade ganhou enorme influência no meio acadêmico, em grupos de especialistas governamentais e na indústria de tecnologia.

Yudkowsky e seus escritos foram importantes para a criação tanto da OpenAI, quanto da DeepMind, um laboratório de IA adquirido pelo Google em 2014. Muitos membros da comunidade de altruístas eficazes trabalharam nesses laboratórios. Eles acreditavam que, como entendiam os perigos da Inteligência Artificial, estavam na melhor posição para construí-la.

As duas organizações que recentemente publicaram cartas públicas para alertar sobre os riscos da IA artificial (Center for AI Safety e Future of Life Institute) estão intimamente ligadas a esse movimento.

A carta mais recente foi assinada por Sam Altman, CEO da OpenAI, e Demis Hassabis, que ajudou a fundar a DeepMind e agora supervisiona um novo laboratório de Inteligência Artificial que combina os melhores pesquisadores da DeepMind e do Google.

Outras figuras respeitadas assinaram uma ou ambas as cartas de aviso, incluindo Bengio e Geoffrey Hinton, que recentemente deixou seu cargo como executivo e pesquisador no Google. Em 2018, ambos receberam o Prêmio Turing, muitas vezes chamado de "Prêmio Nobel da Computação", por seu trabalho em redes neurais.

Com informações do The New York Times e Infobae