Os cientistas poderão um dia ser capazes de ler as mentes das pessoas que perderam a capacidade de falar, sugere nova pesquisa.
Foi publicado na edição online da revista PLoS Biology daUniversidade da California que pesquisadores de Berkeley descobriram uma maneira de analisar as ondas cerebrais de uma pessoa, a fim de reconstruir as palavras a pessoa ouve em uma conversa.
Esta capacidade de decodificar a atividade elétrica em uma área do sistema auditivo chamado de giro temporal superior pode um dia permitir que os neurocientistas ouçam o discurso imaginário dos pacientes com AVC ou outras condições em que os pacientes não podem falar.
“Isso é fantástico para os pacientes que têm danos nos seus mecanismos de fala devido a um acidente vascular cerebral ou doença de Lou Gehrig [esclerose lateral amiotrófica] e não podem falar“, disse Robert Knight, professor de Psicologia e Neurociência, em um comunicado à imprensa. “Se você pudesse, eventualmente, reconstruir conversas imaginárias da atividade cerebral, milhares de pessoas poderiam se beneficiar.”
No entanto, o primeiro autor do estudo, Brian Pasley, observou que “essa pesquisa é baseada em sons que uma pessoa realmente ouve, mas para usar isso em um dispositivo protético estes princípios terão que ser aplicados em alguém que está imaginando discurso.”
Ele explicou que “há alguma evidência de que a percepção do som e a criação de imagens podem ser bastante semelhantes no cérebro. Se você puder entender a relação entre as gravações do cérebro e de som, você poderia sintetizar o som que uma pessoa está pensando ou simplesmente escrever as palavras com um tipo de dispositivo de interface. ”
Para o estudo, a equipe de Pasley testou dois modelos computacionais que foram projetados para combinar sons falados com um padrão de atividade dos eletrodos quando uma paciente ouvia uma única palavra. O melhor dos dois modelos reproduziu um som que era próximo o suficiente da palavra original de forma que os pesquisadores conseguiram adivinhar corretamente a palavra.
O objetivo da pesquisa foi revelar como o cérebro humano codifica o discurso, e, em seguida, identifica os aspectos da fala que são necessários para o entendimento.
“Em algum momento, o cérebro tem de extrair toda a informação auditiva e mapeá-la em apenas uma palavra, uma vez que podemos entender a fala e as palavras independentemente de como ela é pronunciada”, disse Pasley. “A grande questão é: qual é a unidade mais significativa de fala? Uma sílaba, [ou uma unidade ainda menor da linguagem, como o som de cada letra]? Podemos testar essas hipóteses, usando os dados que obtemos a partir dessas gravações. “
Fonte: medlineplus
Imagem: alles-schlumpf