Dois pacientes com paralisia nos Estados Unidos conseguiram falar novamente a partir de seus pensamentos através do uso de inteligência artificial (IA) e implantes cerebrais.
Eles participaram de estudos experimentais separados, nos quais foram implantados dispositivos que “leem” o cérebro. Esses dispositivos permitiram que os pacientes se comunicassem com uma precisão e rapidez sem precedentes.
Te podría interesar
Os avanços foram publicados em dois estudos na revista Nature. No artigo, os pesquisadores descreveram as interfaces cérebro-computador como tradutores de sinais neuronais em texto ou palavras pronunciadas por uma voz sintética.
Essas interfaces podem decodificar a fala a 62 e 78 palavras por minuto, respectivamente. As novas tecnologias são mais ágeis do que qualquer tentativa anterior, embora a conversa natural aconteça cerca de 160 palavras por minuto.
Te podría interesar
‘Agora é possível’
Francis Willett, neurocientista da Universidade de Stanford, Califórnia, Estados Unidos e coautor de um dos trabalhos, afirmou que agora é possível imaginar um futuro em que a conversa fluida possa ser devolvida a alguém com paralisia, permitindo-lhe dizer livremente o que quiser com uma precisão alta o suficiente para ser entendido com confiabilidade.
Isso é um grande avanço na tecnologia médica e oferece esperança para aqueles que sofrem de paralisia. Willett e sua equipe de cientistas desenvolveram uma interface inovadora capaz de interpretar a atividade neural em nível celular e convertê-la em texto.
Um dos pacientes que teve oportunidade de utilizar essa tecnologia foi Pat Bennett, um homem de 67 anos diagnosticado com esclerose lateral amiotrófica. Essa condição causa perda progressiva do controle muscular, resultando em dificuldades de movimentação e fala.
Graças à interface desenvolvida por Willett e sua equipe, Pat Bennett conseguiu se comunicar novamente através do texto gerado a partir de sua atividade neural.
O que os pesquisadores fizeram?
A poucos milímetros abaixo da superfície do cérebro, os pesquisadores implantaram um conjunto de pequenos eletrodos de silício em áreas responsáveis pela fala de Bennett.
Em seguida, eles treinaram algoritmos de aprendizado profundo para reconhecer os sinais únicos no cérebro do paciente quando ele tentava pronunciar várias frases usando um conjunto de vocabulário grande de 125 mil palavras e um conjunto de vocabulário pequeno de 50 vocábulos.
Uma das tecnologias da IA é a decodificação das palavras a partir dos fonemas, que são as subunidades da fala que formam as palavras faladas. Para o vocabulário de 50 palavras, a interface funcionou 2,7 vezes mais rápido do que uma outra anterior de última geração e chegou a uma taxa de erro de palavras de 9,1%.
Margem de erro
“Cerca de três em cada quatro palavras são decifradas corretamente”, afirmou Willett em entrevista coletiva. Segundo ele, a taxa de erro subiu para 23,8% quando comparado com o vocabulário de 125 mil palavras. “Para as pessoas que não falam, isto significa que podem permanecer ligadas ao mundo em geral, talvez ainda trabalhar, manter amizades e relações familiares”, disse.
O neurocirurgião da Universidade da Califórnia, Edward Chang, e seus colegas relataram na pesquisa que trabalharam com uma mulher de 47 anos chamada Ann, que, após aos 18 anos, perdeu a capacidade de falar ao passar por um derrame.
A segunda pesquisa
Os estudiosos usaram um método diferente da equipe de Willett. Eles colocaram um retângulo fino como papel contendo 253 eletrodos na superfície do córtex cerebral. Chamada de eletrocorticografia (ECoG), a técnica é considerada menos invasiva e pode registrar,simultaneamente, a atividade combinada de milhares de neurônios.
Algoritmos de IA foram treinados pela equipe de Chang para reconhecer padrões na atividade cerebral de Ann relacionados às suas tentativas de pronunciar 249 frases com um vocabulário de 1.024 palavras. Com uma taxa média de erro de palavras de 25,5%, o dispositivo produziu 78 palavras por minuto.
Blaise Yvert, pesquisador de neurotecnologia do Instituto de Neurociências de Grenoble, na França, disse que é “agradável ver que com o ECoG é possível obter uma baixa taxa de erros de palavras”. Embora os implantes usados pela equipe de Willett, que capturam a atividade neural com mais precisão, tenham superado esse resultado com vocabulários maiores.
Algoritmos personalizados para converter os sinais cerebrais do paciente em uma voz sintética e um avatar animado que imita expressões faciais foram desenvolvidos pela equipe de Chang. Para isso, eles personalizaram a voz para soar como a de Ann antes da lesão e a treinaram com gravações do vídeo de seu casamento.
Ela acrescenta que a experiência de falar de forma independente é de emocionar.“Só ouvir uma voz como a sua é emocionante”, disse Ann aos pesquisadores em uma sessão pós-estudo. “Quando tive a capacidade de falar por mim mesma, foi enorme!”.
*Com informações de Infobae