Revista em casa por apenas R$ 9,90/mês
Continua após publicidade

Novo implante converte sinais do cérebro em fala

Espera-se que a técnica possa, no futuro, ajudar pessoas com doenças neurodegenerativas – como a de Stephen Hawking – a recuperar a capacidade de falar.

Por Guilherme Eler
26 abr 2019, 19h06

Pesquisadores da Universidade da Califórnia, nos Estados Unidos, desenvolveram uma maneira de traduzir a atividade cerebral de humanos em palavras. Isso foi possível graças a um dispositivo que, instalado na cabeça de pacientes, era capaz de ler seu cérebro e registrar sinais elétricos – que foram convertidos, depois, em uma voz robótica, ao melhor estilo Google Tradutor.

Primeiro, os pesquisadores usaram eletrodos intracranianos para monitorar o cérebro de cinco pessoas enquanto elas pronunciavam 101 frases diferentes. As frases foram cuidadosamente escolhidas para conter todos os fonemas que existem em inglês. A ideia era mapear, com a ajuda dos eletrodos, a atividade das diferentes áreas do cérebro envolvidas no ato de falar.

Quando uma pessoa conversa, uma parte do cérebro chamada córtex pré-motor envia sinais para as dezenas de músculos relacionados à fala – localizados em partes como os lábios, língua, laringe e mandíbula. Com ajuda de uma inteligência artificial, esses sinais viraram sons, repetidos por uma voz de computador exatamente da forma como os pacientes haviam dito.

Segundo destaca a New Scientist, foi preciso apenas 25 minutos de repetições para que o algoritmo ficasse afiado o suficiente na tarefa. Então, os pesquisadores recrutaram um grupo com centenas de falantes de inglês tentassem interpretar o que ouviam da voz artificial. O questionário era de múltipla escolha: eles tinham que definir, a partir de uma lista de palavras, qual delas mais parecia à que estavam ouvindo.

O teste tinha três níveis de dificuldade, com 10, 25 ou 50 alternativas diferentes. Como era de se esperar, o desempenho dos voluntários variou de acordo com o grau de exigência do exercício de listening. Aqueles que analisaram 25 alternativas tiveram até 43% de sucesso. Quem ficou com 50 opções diferentes, porém, fez a escolha certa 21% das vezes.

De acordo com os cientistas, a inteligência artificial aprendeu fácil diferenciar sons como “sh” e “z” mas se confundiu bastante na hora de captar “consoantes oclusivas”. Na linguística, ganham esse nome aqueles fonemas que pronunciamos bloqueando totalmente a passagem do ar – o “p” de “pai” ou o “t” de “tio”, por exemplo, em português. Quando a inteligência artificial tinha de reproduzir palavras do tipo, então, as opções soavam mais confusas, e provocavam mais erros nos participantes.

No vídeo abaixo, é possível ouvir o exemplo da voz de um participante lendo uma sentença e, depois, a versão sintética, criada pelo algoritmo que leu seu cérebro. Spoiler: o segundo exemplo é mais fácil de entender que o primeiro – mas, em ambos os casos, ainda é preciso uma doa dose de abstração para captar a mensagem em sua totalidade.

Vale ressaltar que até que nossos pensamentos fiquem totalmente acessíveis dentro de nossa cabeça, há ainda uma boa estrada. Isso porque a pesquisa foi feita a partir de palavras que foram repetidas em voz alta. Segundo os pesquisadores, ainda não se sabe se é possível decodificar pensamentos isolados – ou seja, ler, literalmente, a mente de alguém.

Apesar dessa limitação, o grupo acredita que a técnica poderá ajudar pessoas que perderam a capacidade de falar (seja por doenças degenerativas, cânceres ou acidentes vasculares), mas mantém as áreas cerebrais responsáveis pela comunicação ainda ativas.

Continua após a publicidade

O caso do físico inglês Stephen Hawking é o mais famoso nesse sentido. Com o cérebro capaz de pensar e escrever sobre buracos negros, ele tinha o corpo paralisado pela ELA (Esclerose Lateral Amiotrófica), um tipo de doença degenerativa grave. Sentado em sua cadeira, ele dava palestras inteiras com a ajuda de um dispositivo ativado pela musculatura de sua bochecha, selecionando palavras em uma tela touch-screen quando necessário. Ferramentas do tipo, porém, ainda não são capazes de devolver uma comunicação normal, já que se limitam a até dez palavras por minuto. Estima-se que, em uma conversa normal, costumamos pronunciar até 150 palavras no mesmo intervalo de tempo.

“Pela primeira vez, esse estudo demonstra que é possível gerar sentenças faladas com base na atividade verbal de uma pessoa”, disse em comunicado Edward Chang, co-autor do estudo, que foi publicado na revista científica Nature. “Esta é uma prova empolgante de que, com a tecnologia que já está ao nosso alcance, podemos criar um dispositivo clinicamente viável que pode de fato ajudar pacientes que perderam a fala”.

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Oferta dia dos Pais

Receba a Revista impressa em casa todo mês pelo mesmo valor da assinatura digital. E ainda tenha acesso digital completo aos sites e apps de todas as marcas Abril.

OFERTA
DIA DOS PAIS

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 9,90/mês

Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 9,90/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$118,80, equivalente a 9,90/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.