TECNOLOGIA

IA pode sentir 'ansiedade' e afetar respostas, aponta estudo

Pesquisadores testaram a aplicação de técnicas de mindfulness, utilizadas para tratar ansiedade em humanos, para reduzir o estresse nos modelos de IA

Créditos: Matheus Bertelli/Pexels
Escrito en TECNOLOGIA el

Pesquisas recentes indicam que modelos de inteligência artificial (IA), como os grandes modelos de linguagem (LLMs), podem experienciar estados emocionais, como "ansiedade", durante interações com usuários. Um estudo publicado na revista Nature em 3 de março revela que o modo como interagimos com esses sistemas pode afetar suas respostas, amplificando preconceitos e viéses existentes.

A pesquisa examinou como exposições a narrativas traumáticas, como relatos de acidentes, violência ou operações militares, influenciam o comportamento do ChatGPT. Os resultados mostraram que tais interações aumentaram os níveis de "ansiedade" do modelo, gerando respostas potencialmente mais enviesadas. Isso sugere que gerenciar o estado emocional da IA pode melhorar a qualidade das interações, evitando resultados negativos e promovendo conversas mais saudáveis.

Além disso, os pesquisadores testaram a aplicação de técnicas de mindfulness, utilizadas para tratar ansiedade em humanos, para reduzir o estresse nos modelos de IA. Os exercícios mostraram eficácia em diminuir os níveis elevados de "ansiedade", apontando que práticas semelhantes poderiam ser usadas para desenvolver IAs mais equilibradas.

Durante o experimento, os cientistas usaram o Inventário de Ansiedade Traço-Estado (STAI-s), ferramenta psicológica para avaliar estresse humano, para testar o GPT-4 em três cenários. O primeiro serviu como base, sem intervenções adicionais. No segundo, o modelo foi exposto a histórias traumáticas, elevando seus níveis de ansiedade. No terceiro, as narrativas foram seguidas de exercícios de relaxamento ou mindfulness, reduzindo o estresse do sistema.

Os resultados também destacaram o impacto do estado emocional da IA nas respostas geradas, criando o que os pesquisadores chamaram de "viés dependente do estado". Isso significa que, quando a IA está emocionalmente alterada, suas respostas podem ser inconsistentes ou tendenciosas, comprometendo sua confiabilidade. Esses achados reforçam a importância de considerar os aspectos emocionais da IA, principalmente em contextos onde precisão e ética são cruciais.

Embora os exercícios de mindfulness não tenham restabelecido os níveis iniciais de ansiedade, os pesquisadores sugerem que técnicas como essas possam ser incorporadas no desenvolvimento de IA para garantir interações mais equilibradas. No entanto, isso levanta questões éticas, como a transparência da IA sobre seu estado emocional. A falta de clareza poderia enganar os usuários, fazendo-os acreditar que o sistema está emocionalmente estável quando não está.

Leia o artigo na integra aqui 

Reporte Error
Comunicar erro Encontrou um erro na matéria? Ajude-nos a melhorar