Ser capaz de decodificar ondas cerebrais pode ajudar pacientes que perderam a capacidade de falar e, em última análise, a fornecer novas maneiras de os humanos interagirem com os computadores. Mas também pode servir para a Meta (Facebook, Instagram, etc) saber o que estás a ouvir usando gravações de exames cerebrais não invasivos.
A nossa capacidade de investigar a atividade do cérebro humano melhorou significativamente nas últimas décadas, à medida que os cientistas desenvolveram uma variedade de tecnologias de interface cérebro-computador (BCI) que podem fornecer uma janela para se chegar aos nossos pensamentos e intenções.
Os resultados mais impressionantes vieram de dispositivos de gravação invasivos, que implantam eletrodos diretamente na massa cinzenta do cérebro, combinados com IA que pode aprender a interpretar sinais cerebrais. Nos últimos anos, isso tornou possível decodificar frases completas da atividade neural de alguém com 97% de precisão e traduzir tentativas de movimentos de caligrafia diretamente em texto em velocidades comparáveis às mensagens de texto.
No entanto, cientistas da divisão de pesquisa de IA da Meta – e outros cientistas em todo o mundo – decidiram investigar se poderiam alcançar objetivos semelhantes sem exigir uma cirurgia cerebral perigosa. Num artigo publicado no servidor de pré-impressão arXiv, a equipa relatou que desenvolveu um sistema de IA que pode prever quais palavras alguém está ouvindo com base na atividade cerebral gravada usando interfaces cérebro-computador não invasivas.
“É obviamente extremamente invasivo colocar um eletrodo dentro do cérebro de alguém”, disse Jean Remi King, investigador do Laboratório de Pesquisa em Inteligência Artificial do Facebook (FAIR). “Queríamos tentar usar gravações não invasivas da atividade cerebral. E o objetivo era construir um sistema de IA que pudesse decodificar as respostas do cérebro às histórias faladas.” E funciona, embora haja muita margem para melhorias.