A língua humana pode ajudar os cegos a ‘ver’ o mundo

Imagem via Unsplash

Já se perguntou por que beijar é melhor do que dar as mãos? A língua é um kit incrível, embora notoriamente difícil de estudar, devido à sua posição dentro da boca.

Obviamente, nos dá acesso ao maravilhoso mundo do paladar, mas mais do que isso, tem maior sensibilidade ao toque do que a ponta do dedo. Sem ele, não somos capazes de falar, cantar, respirar com eficiência ou engolir bebidas deliciosas.

Então, por que não usamos ainda mais?

Meu novo estudo investiga como aproveitar ao máximo esse órgão estranho – potencialmente como uma interface para ajudar pessoas com deficiência visual a navegar e até se exercitar. Eu percebo que isso pode parecer incompreensível, mas por favor, tenha paciência comigo.

Minha pesquisa faz parte de um campo conhecido como ‘substituição sensorial’, um ramo da ciência interdisciplinar que combina psicologia, neurociência, ciência da computação e engenharia para desenvolver ‘dispositivos de substituição sensorial’ (conhecidos como SSDs).

Os SSDs convertem informações sensoriais de um sentido para outro. Por exemplo, se o dispositivo for projetado para uma pessoa com deficiência visual, isso normalmente significa converter informações visuais de um feed de vídeo em som ou toque.

Desenho de imagens na língua

BrainPort, desenvolvido pela primeira vez em 1998, é uma dessas tecnologias. Ele converte o feed de vídeo de uma câmera em padrões móveis de estimulação elétrica na superfície da língua.

O ‘display de língua’ (um pequeno dispositivo em forma de pirulito) consiste em 400 eletrodos minúsculos, com cada eletrodo correspondendo a um pixel do feed de vídeo de uma câmera. Ele cria uma tela tátil de baixa resolução na língua combinando com a saída da câmera.

A tecnologia pode ser usada para ajudar as vítimas de derrame a manter seu senso de equilíbrio. E em 2015, a Food and Drug Administration dos EUA aprovou seu uso como auxílio para deficientes visuais.

Imagine segurar sua mão na frente de uma câmera e sentir uma mãozinha aparecer simultaneamente na ponta da sua língua. Parece um pouco como se alguém estivesse desenhando imagens em sua língua em doces estourando.

Embora o BrainPort exista há anos, ele não teve muita aceitação no mundo real, apesar de ser dez vezes mais barato que um implante de retina. Eu uso o BrainPort para testar como a atenção humana funciona na superfície da língua, para ver se diferenças de percepção podem ser a causa disso.

Na pesquisa em psicologia, existe um método famoso para testar a atenção, chamado de paradigma Posner Cueing, em homenagem ao psicólogo americano Mike Posner que o desenvolveu na década de 1980 para medir a atenção visual.

Quando digo atenção, não quero dizer ‘tempo de atenção’. A atenção refere-se ao conjunto de processos que trazem as coisas do ambiente para a nossa consciência. Posner descobriu que nossa atenção pode ser estimulada por estímulos visuais.

Se vemos brevemente algo se movendo pelo canto do olho, a atenção se concentra nessa área. Provavelmente evoluímos dessa maneira para reagir rapidamente a cobras perigosas à espreita nos cantos e nas bordas do nosso campo visual.

Esse processo também ocorre entre os sentidos. Se você já se sentou no jardim de um pub no verão e ouviu o temido zumbido de uma vespa chegando em um ouvido, sua atenção é rapidamente atraída para esse lado do seu corpo.

O som da vespa captura sua atenção auditiva para a localização geral da vespa potencialmente recebida, de modo que o cérebro possa alocar rapidamente atenção visual para identificar a localização exata da vespa e atenção tátil para afastar rapidamente a vespa.

Isso é o que chamamos de atenção ‘cross-modal’ (visão é um modo de sensação, áudio outro): coisas que aparecem em um sentido podem influenciar outros sentidos.

Quão semelhante é ver com a língua a ver com os olhos ou as mãos? PH888/Shutterstock

Prestando atenção na língua

Meus colegas e eu desenvolvemos uma variação do paradigma Posner Cueing para ver se o cérebro pode alocar atenção tátil na superfície da língua da mesma forma que as mãos ou outros modos de atenção.

Sabemos muito sobre atenção visual e atenção tátil nas mãos e outras partes do corpo, mas não temos ideia se esse conhecimento se traduz na língua.

Isso é importante porque o BrainPort foi projetado, construído e vendido para ajudar as pessoas a ‘ver’ através da língua. Mas precisamos entender se ‘ver’ com a língua é o mesmo que ver com os olhos.

A resposta a essas perguntas, como quase tudo na vida, é que é complicado.

A língua responde a informações sinalizadas aproximadamente da mesma maneira que as mãos ou a visão, mas apesar da incrível sensibilidade da língua, os processos de atenção são um pouco limitados em comparação com os outros sentidos. É muito fácil estimular demais a língua – causando sobrecarga sensorial que pode dificultar a sensação do que está acontecendo.

Também descobrimos que os processos atencionais na língua podem ser influenciados pelo som. Por exemplo, se um usuário do BrainPort ouvir um som à esquerda, ele poderá identificar mais facilmente as informações no lado esquerdo de sua língua. Isso pode ajudar a orientar a atenção e reduzir a sobrecarga sensorial com o BrainPort se estiver emparelhado com uma interface auditiva.

Em termos de uso do BrainPort no mundo real, isso se traduz em gerenciar a complexidade da informação visual que é substituída e, se possível, usar outro sentido para ajudar a compartilhar parte da carga sensorial.

Usar o BrainPort isoladamente pode ser muito estimulante para fornecer informações confiáveis e pode ser aprimorado com o uso de outras tecnologias assistivas ao lado, como o vOICe.

Estamos usando essas descobertas para desenvolver um dispositivo para ajudar alpinistas com deficiência visual a navegar durante a escalada.

Para evitar a sobrecarga de informações, estamos usando machine learning para identificar retenções de escalada e filtrar informações menos relevantes.

Também estamos explorando a possibilidade de usar o som para indicar onde pode ser a próxima retenção e, em seguida, usar o feedback na língua para localizar com precisão a retenção.

Com alguns ajustes, essa tecnologia pode eventualmente se tornar um instrumento mais confiável para ajudar cegos, surdos ou cegos a navegar. Pode até ajudar pessoas paraplégicas, incapazes de usar as mãos, navegar ou se comunicar com mais eficiência.


Publicado em 05/08/2022 12h03

Artigo original:

Estudo original: