Rumo a uma Inteligência Artificial semelhante ao cérebro com computação hiperdimensional

Crédito CC0: domínio público

O cérebro humano sempre foi estudado para se inspirar em sistemas de computação. Embora haja um longo caminho a percorrer até que possamos alcançar um sistema de computação que corresponda à eficiência do cérebro humano para tarefas cognitivas, vários paradigmas de computação inspirados no cérebro estão sendo pesquisados. As redes neurais convolucionais são uma abordagem de aprendizado de máquina amplamente usada para aplicativos relacionados à IA devido ao seu desempenho significativo em relação a abordagens baseadas em regras ou simbólicas. No entanto, para muitas tarefas, o aprendizado de máquina requer uma grande quantidade de dados e treinamento para convergir para um nível aceitável de desempenho.

Um Ph.D. estudante da Universidade Khalifa, Eman Hasan, está investigando outra metodologia de computação de IA chamada “computação hiperdimensional”, que pode levar os sistemas de IA um passo mais perto da cognição humana. O trabalho é supervisionado pelo Dr. Baker Mohammad, professor associado e diretor de o System on Chip Center (SOCC) e o Dr. Yasmin Halawani, Pós-doutorado.

O trabalho de Hasan, que foi publicado recentemente na revista IEEE Access, analisa diferentes modelos de computação hiperdimensional e destaca as vantagens desse paradigma computacional. A computação hiperdimensional, ou HDC, é um paradigma relativamente novo para computação usando vetores grandes (como 10000 bits cada) e é inspirado por padrões de atividade neural no cérebro humano. Os meios pelos quais podem permitir que sistemas de computação baseados em IA retenham memória pode reduzir suas demandas de computação e energia.

Os vetores HDC, por natureza, também são extremamente robustos contra ruído, assim como o sistema nervoso central humano. A inteligência requer a detecção, armazenamento, vinculação e desvinculação de padrões ruidosos, e o HDC é adequado para lidar com padrões ruidosos. Inspirado por uma representação abstrata de circuitos neuronais no cérebro humano, o desenvolvimento de uma arquitetura HDC envolve estágios de codificação, treinamento e comparação.

O cérebro humano é excelente para reconhecer padrões e usar esses padrões para inferir informações sobre outras coisas. Por exemplo, os humanos geralmente entendem que só porque está faltando uma perna em uma cadeira, isso não significa que ela não seja mais uma cadeira. Um sistema de IA pode olhar para esta cadeira de três pernas e decidir que é um objeto completamente novo que precisa de uma nova classificação. Os vetores HDC, entretanto, oferecem alguma margem de erro. Com o HDC, reconhecer certos recursos irá gerar um vetor que é semelhante o suficiente a uma cadeira para que o computador possa inferir que o objeto é uma cadeira a partir de sua memória da aparência de uma cadeira. Conseqüentemente, a cadeira de três pernas permanecerá uma cadeira na computação hiperdimensional, enquanto no reconhecimento de objetos tradicional esta é uma tarefa difícil.

“Em um vetor HD, podemos representar os dados holisticamente, o que significa que o valor de um objeto é distribuído entre muitos pontos de dados”, explicou Hasan. “Portanto, podemos reconstruir o significado do vetor, desde que tenhamos 60% de seu conteúdo.”

A estrutura dos vetores leva a uma das maiores vantagens da abordagem HDC, que é que ela pode tolerar erros e, portanto, é uma ótima opção para aplicações de computação aproximada. Isso surge da representação dos hipervetores, onde um valor de bit é independente de sua localização na sequência de bits.

O HDC também é poderoso por ser centrado na memória, o que o torna capaz de realizar cálculos complexos enquanto requer menos poder de computação. Este tipo de computação é particularmente útil para computação de ponta, que se refere à computação que é feita na fonte de dados ou próximo a ela. Em um número crescente de dispositivos, inclusive em veículos autônomos, as computações devem ser realizadas imediatamente e no ponto da coleta de dados, ao invés de depender da computação feita na nuvem em um data center.

“A computação hiperdimensional é um modelo promissor para dispositivos de ponta, pois não inclui a etapa de treinamento exigente computacionalmente encontrada na rede neural convolucional amplamente usada”, explicou Hasan. “No entanto, a computação hiperdimensional vem com seus próprios desafios, já que a codificação sozinha leva cerca de 80% do tempo de execução de seu treinamento e alguns algoritmos de codificação resultam em dados codificados crescendo até vinte vezes seu tamanho original.”

Hasan estudou o paradigma HDC e seus principais algoritmos em aplicações unidimensionais e bidimensionais. A pesquisa mostrou que o HDC supera as redes neurais digitais em aplicativos de conjunto de dados unidimensionais, como reconhecimento de voz, mas a complexidade aumenta quando é expandido para aplicativos 2D.

“O HDC tem mostrado resultados promissores para aplicações unidimensionais, usando menos energia e com menor latência do que as redes neurais profundas simples de última geração”, explicou Hasan. “Mas em aplicativos 2D, as redes neurais convolucionais ainda alcançam maior precisão de classificação, mas às custas de mais cálculos.”


Publicado em 07/05/2021 18h44

Artigo original:

Estudo original: