TECNOLOGIA

Veja o primeiro modelo de IA a passar em um teste de Turing

Estudo publicado no repositório arXiv revela que o GPT-4.5 foi capaz de se passar por humano em 73% dos casos em uma versão mais rigorosa do teste de Turing

Créditos: Wikimedia Commons
Escrito en TECNOLOGIA el

Pesquisadores da Universidade de San Diego anunciaram um novo avanço no desempenho de grandes modelos de linguagem (LLMs). De acordo com um estudo publicado no repositório arXiv em 31 de março, o GPT-4.5 conseguiu convencer participantes humanos de que era uma pessoa real em 73% dos casos durante uma versão mais rigorosa do teste de Turing.

O experimento envolveu uma simulação com três interlocutores: um humano, um LLM e um participante que deveria identificar qual dos dois era a máquina. Cada sessão durava cerca de cinco minutos, com trocas simultâneas de mensagens. A proposta segue o modelo original do “jogo da imitação” concebido por Alan Turing em 1950, que questionava se máquinas poderiam se comportar de forma indistinguível de humanos.

Além do GPT-4.5, outros modelos foram avaliados, como o LLaMa-3.1 da Meta, que foi identificado como humano em 56% das ocasiões. Esse número já supera a previsão do próprio Turing, que sugeria que um interrogador não teria mais do que 70% de acerto após cinco minutos de interação.

LEIA TAMBÉM: Bolsonaro segue na UTI e sem expectativa de evolução rápida, diz médico 

A equipe conduziu mais de mil rodadas do teste com 126 estudantes universitários e 158 participantes da plataforma Prolific. Os LLMs foram instruídos a se passar por humanos, com um prompt adicional sugerindo que adotassem a persona de um jovem introvertido, familiarizado com a cultura da internet e com uso frequente de gírias. Essa camada de caracterização foi essencial para melhorar o desempenho dos modelos.

Cameron Jones, coautor do estudo, destacou em publicação na rede X que os participantes tiveram mais dificuldade em distinguir o GPT-4.5 de humanos reais. “As pessoas não foram melhores do que o acaso ao identificar quem era IA e quem era humano. Em muitos casos, o modelo foi visto como mais humano do que pessoas reais”, afirmou.

Os participantes tomaram suas decisões com base no estilo de linguagem, no ritmo da conversa e em traços de personalidade percebidos. Segundo os autores, isso demonstra que a “vibe” da interação teve mais peso do que sinais objetivos de inteligência ou raciocínio lógico.

Apesar do feito, os pesquisadores alertam que a capacidade de imitar humanos não equivale à inteligência humana genuína. Eles também destacam riscos éticos, como a possibilidade de manipulação emocional e engenharia social. “Os maiores danos podem ocorrer quando alguém não percebe que está conversando com uma IA”, concluíram.

LEIA TAMBÉM: Faria Lima pede "surto de sanidade" a Bolsonaro para lançar Tarcísio como candidato anti-Lula 

*Com informações de Lives Science 

Reporte Error
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar