Uma arquitetura que combina redes neurais profundas e modelos simbólicos-vetoriais

Ilustração artística da arquitetura neuro-vetor-simbólica. Crédito: Hersche et al

#Redes neurais 

Pesquisadores da IBM Research Zürich e da ETH Zürich criaram recentemente uma nova arquitetura que combina duas das mais renomadas abordagens de inteligência artificial, ou seja, redes neurais profundas e modelos simbólicos de vetores. Sua arquitetura, apresentada em Nature Machine Intelligence, poderia superar as limitações de ambas as abordagens, resolvendo matrizes progressivas e outras tarefas de raciocínio de forma mais eficaz.

“Nosso artigo recente foi baseado em nossos trabalhos de pesquisa anteriores destinados a aumentar e aprimorar redes neurais com o poderoso maquinário de arquiteturas simbólicas de vetores (VSAs)”, disse Abbas Rahimi, um dos pesquisadores que realizou um estudo, ao Tech Xplore. “Essa combinação foi aplicada anteriormente ao aprendizado de poucos tiros, bem como tarefas de aprendizado contínuo de poucos tiros, alcançando precisão de última geração com menor complexidade computacional. Em nosso artigo recente, levamos esse conceito além da percepção, focando em resolvendo tarefas de raciocínio abstrato visual, especificamente, os testes de QI amplamente usados conhecidos como matrizes progressivas de Raven.”

As matrizes progressivas de Raven são testes não verbais normalmente usados para testar o QI das pessoas e as habilidades de raciocínio abstrato. Eles consistem em uma série de itens apresentados em conjuntos, onde um ou mais itens estão faltando.

Para resolver as matrizes progressivas de Raven, os respondentes precisam identificar corretamente os itens que faltam em determinados conjuntos entre algumas escolhas possíveis. Isso requer capacidades avançadas de raciocínio, como a capacidade de detectar relações abstratas entre objetos, que podem estar relacionadas à sua forma, tamanho, cor ou outras características.

A arquitetura neuro-vetorial-simbólica (NVSA) desenvolvida por Rahimi e seus colegas combina redes neurais profundas, conhecidas por terem um bom desempenho em tarefas de percepção, com máquinas VSA. Os VSAs são modelos computacionais exclusivos que executam cálculos simbólicos usando vetores distribuídos de alta dimensão.

“Embora nossa abordagem possa soar um pouco como abordagens de IA neurossimbólica, a IA neurosimbólica herdou as limitações de seu deep learning individual e componentes simbólicos clássicos de IA”, explicou Rahimi. “Nosso principal objetivo é abordar essas limitações, ou seja, o problema de ligação neural e a pesquisa exaustiva, no NVSA, usando uma linguagem comum entre os componentes neural e simbólico”.

A combinação da equipe de redes neurais profundas e VSAs foi apoiada por dois principais recursos de design de arquitetura. Isso inclui um novo processo de treinamento de rede neural e um método para realizar transformações VSA.

“Desenvolvemos dois facilitadores principais de nossa arquitetura”, disse Rahimi. “O primeiro é o uso de um novo método de treinamento de rede neural como um meio flexível de aprendizado de representação sobre o VSA. O segundo é um método para obter transformações adequadas do VSA, de modo que cálculos e pesquisas exaustivas de probabilidade possam ser substituídos por operações algébricas mais simples no VSA Espaço vetorial.”

Em avaliações iniciais, a arquitetura desenvolvida por Rahimi e seus colegas obteve resultados muito promissores, resolvendo as matrizes progressivas de Raven de forma mais rápida e eficiente do que outras arquiteturas desenvolvidas no passado. Especificamente, ele teve um desempenho melhor do que as redes neurais profundas de última geração e as abordagens de IA neurossimbólica, alcançando novas precisões de registro de 87,7% no conjunto de dados RAVEN e 88,1% no conjunto de dados I-RAVEN.

“Para resolver um teste de Raven, é necessário algo chamado abdução probabilística, um processo que envolve a busca de uma solução em um espaço definido pelo conhecimento prévio sobre o teste”, disse Rahimi. “O conhecimento prévio é representado de forma simbólica pela descrição de todas as realizações de regras possíveis que poderiam governar os testes de Raven. A abordagem de raciocínio puramente simbólico precisa passar por todas as combinações válidas, calcular a probabilidade da regra e somá-las. Essa busca se torna uma pesquisa computacional gargalo no grande espaço de busca, devido a um grande número de combinações que seriam proibitivas de testar.”

Em contraste com as arquiteturas existentes, o NVSA pode realizar extensos cálculos probabilísticos em uma única operação vetorial. Isso, por sua vez, permite resolver o raciocínio abstrato e problemas relacionados à analogia, como as matrizes progressivas de Raven, com mais rapidez e precisão do que outras abordagens de IA baseadas apenas em redes neurais profundas ou VSAs.

“Nossa abordagem também aborda o problema de ligação neural, permitindo que uma única rede neural reconheça separadamente propriedades distintas de vários objetos simultaneamente em uma cena”, disse Rahimi. “No geral, o NVSA oferece um raciocínio transparente, rápido e eficiente; e é o primeiro exemplo que mostra como o raciocínio probabilístico (como uma atualização do raciocínio lógico puro) pode ser executado com eficiência por representações distribuídas e operadores do VSA. Comparado ao raciocínio simbólico de abordagens neuro-simbólicas, o raciocínio probabilístico do NVSA é duas ordens de grandeza mais rápido, com operações menos dispendiosas nas representações distribuídas.”

A nova arquitetura criada por esta equipe até agora provou ser altamente promissora para resolver de forma eficiente e rápida tarefas de raciocínio complexo. No futuro, pode ser testado e aplicado a vários outros problemas, ao mesmo tempo em que pode inspirar o desenvolvimento de outras abordagens semelhantes.

“O NVSA é um passo importante para encapsular diferentes paradigmas de IA em uma estrutura unificada para lidar com tarefas que envolvem percepção e raciocínio de nível superior”, acrescentou Rahimi. “Curiosamente, o NVSA já exibiu graus de generalização para várias combinações invisíveis de objetos e atributos de objetos. A generalização adicional nessa direção ainda é um problema em aberto.”


Publicado em 02/04/2023 19h53

Artigo original:

Estudo original: