possessed-photography-rDxP1tF3CmA-unsplash

Vamos construir mãos para robôs? E porquê?

O que é uma mão humana?

As nossas mãos são feitos insanamente complexos da engenharia evolucionária. Sensores densamente compactados fornecem várias sensações: toque, pressão, calor, humidade, etc. Ao mesmo tempo dezenas de articulações trabalham em conjunto para nos dar uma destreza notável. E uma consciência de “sexto sentido” dá-nos uma noção espacial de onde estão as nossas mãos, tornando possível abrir uma porta, pegar uma caneca e servir um café com base apenas no que sentimos.

Então, por que os robôs não podem fazer o mesmo?

Um novo artigo na Science, Subramanian Sundaram, da Universidade de Harvard, argumenta que é hora de repensar o toque robótico.  Depois de décadas, estamos agora à beira de uma descoberta graças a dois avanços importantes. Primeiro, entendemos melhor como o toque funciona nos humanos. Dois, temos uma ferramenta fantástica chamada machine learning, que pode reinventar a biologia do silício.

Mãos robóticas com um sentido de tato, e um cérebro de IA, poderiam alterar de forma radical a forma como vemos os robôs. Os robôs equipados com mãos humanas são muito mais capazes de tarefas rotineiras, como fazer comida ou dobrar a roupa, bem como executar missões especializadas como cirurgia ou salvamento. 

As células das nossas mãos que captam os sinais de toque, chamadas de neurónios táteis de “primeira ordem”, são como árvores de cabeça para baixo. Ramos intrincados estendem-se e enterram-se profundamente na pele. Cada neurónio tem o seu próprio pequeno domínio, os “campos receptores”, embora alguns se sobreponham. 

De certa forma, os neurónios táteis da mão fazem algo parecido com o Código Morse. Por meio de diferentes frequências de bipes elétricos, eles são capazes de transferir informações sobre o tamanho, textura, peso e outras propriedades de um objeto ao cérebro.

Transformar esta maravilha da biologia num mão robótica é no entanto um pesadelo para qualquer cientista. Mas os robôs têm a vantagem de não estarem limitados ao hardware biológico. Isso dá-nos mais opções. No início deste ano, por exemplo, uma equipa da Universidade de Columbia projetou um dedo robótico “sensível” usando sensores e emissores de luz sobrepostos de uma forma vagamente semelhante aos campos receptores. 

Embora seja um afastamento radical ao nosso sistema elétrico, a tentativa da equipa de Columbia baseou-se na biologia humana. Para além disso, “um progresso substancial está sendo feito na criação de peles eletrónicas flexíveis”, disse Sundaram, muitos dos quais podem sentir forças ou pressão, embora atualmente ainda sejam limitados.

O que é promissor, no entanto, é o “progresso empolgante no uso de dados visuais”, disse Sundaram. A visão computacional ganhou com camaras omnipresentes e a capacidade de gerar grandes volumes de dados, o que permite treinar algoritmos poderosos.

Daqui para frente, argumenta Sundaram, precisamos seguir de perto como a mão e o cérebro processam o toque. O sequestro do nosso “mecanismo de toque” biológico já se mostrou útil. Em 2019, a equipa usou uma interface com o sistema nervoso para que amputados possam controlar um braço robótico – o braço DEKA LUKE – e sentir o que a mão estava sentindo. A pressão no braço e na mão do LUKE ativou uma interface neural implantada, que eletrocutou os nervos, da mesma forma que o cérebro processa o toque. Quando o IA analisou os dados de pressão semelhantes aos neurónios táteis biológicos, a pessoa foi capaz de identificar melhor os diferentes objetos com os olhos fechados.

Crédito da foto: Possessed Photography on Unsplash

Comments are closed.