ELON MUSK

Elon Musk e outro CEOs pedem “pausa imediata” no desenvolvimento de Inteligência artificial

Documento do Future of Life Institute afirma que “a competição de IA com os humanos pode representar riscos profundos para a sociedade e a humanidade”

Inteligência Artificial.Créditos: Pixabay
Escrito en TECNOLOGIA el

O bilionário Elon Musk, proprietário da Tesla e também do Twitter, assinou junto com vários líderes e pesquisadores do setor de tecnologia, uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial. A razão é o medo que eles têm de “riscos profundos para a sociedade e a humanidade" ligados à tecnologia.

Entre os signatários da carta estão o cofundador da Apple, Steve Wozniak, e uma série de CEOs e pesquisadores. O documento foi publicado em 22 de março pela Future of Life Institute (FOLI, na sigla em inglês), uma instituição de pesquisa sediada nos Estados Unidos.

O instituto convoca todas as empresas de inteligência artificial a “pausarem imediatamente” o treinamento de sistemas mais poderosos que o GPT-4 por pelo menos seis meses. O argumento é de que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”.

Fora de controle

“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, defendeu o instituto.

A FOLI considera que há uma “corrida fora de controle” entre as empresas de inteligência artificial para desenvolver a IA "mais poderosa", cujo resultado “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.

A carta diz ainda que as máquinas poderiam potencialmente inundar os canais de informação com “propaganda e falsidade” e também levanta a possibilidade de que as máquinas “automatizem” todas as oportunidades de emprego.

A instituição sugeriu ainda que o desenvolvimento dos produtos dessas empresas podem levar a humanidade a uma ameaça existencial: “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização?”.

“Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos” pelo público, acrescentou a carta. O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente é necessária antes do treinamento de futuros sistemas de inteligência artificial.

Em uma publicação em 24 de fevereiro no blog oficial da OpenAI, Altman destacou que há a necessidade de se preparar para robôs de inteligência artificial geral (AGI, na sigla em inglês) e para a superinteligência artificial (ASI, na sigla em inglês).

Leia a carta na íntegra no site da Future of Life Institute

Com informações do Future of Money, da Exame