Nova abordagem encontrada para aplicações de Inteligência Artificial com eficiência energética

O algoritmo será implementado em sistemas de computação inspirados no cérebro, como o SpiNNaker baseado em spikes (retratado aqui). SpiNNaker faz parte da infraestrutura de pesquisa EBRAINS do Projeto Cérebro Humano. Crédito: Forschungszentrum Jülich

A maioria das novas conquistas em inteligência artificial (IA) requer redes neurais muito grandes. Eles consistem em centenas de milhões de neurônios dispostos em várias centenas de camadas, ou seja, eles têm estruturas de rede muito “profundas”. Essas grandes redes neurais profundas consomem muita energia no computador. Essas redes neurais que são usadas na classificação de imagens (por exemplo, reconhecimento de rosto e objeto) são particularmente intensivas em energia, uma vez que têm que enviar muitos valores numéricos de uma camada de neurônios para a próxima com grande precisão em cada ciclo de tempo.

O cientista da computação Wolfgang Maass, junto com seu Ph.D. o estudante Christoph Stöckl, agora encontrou um método de design para redes neurais artificiais que abre caminho para hardware de IA de alto desempenho com eficiência energética (por exemplo, chips para sistemas de assistência ao motorista, smartphones e outros dispositivos móveis). Os dois pesquisadores do Instituto de Ciência da Computação Teórica da Universidade de Tecnologia de Graz (TU Graz) otimizaram redes neuronais artificiais em simulações de computador para classificação de imagens de tal forma que os neurônios – semelhantes aos neurônios do cérebro – só precisam enviar sinais relativamente raramente e aqueles que o fazem são muito simples. A comprovada precisão de classificação de imagens com este design está, no entanto, muito próxima do atual estado da arte das ferramentas atuais de classificação de imagens.

O processamento de informações no cérebro humano como paradigma

Maass e Stöckl foram inspirados pela maneira como o cérebro humano funciona. Ele processa vários trilhões de operações de computação por segundo, mas requer apenas cerca de 20 watts. Esse baixo consumo de energia é possibilitado pela comunicação entre neurônios por meio de impulsos elétricos muito simples, os chamados picos. A informação é, portanto, codificada não apenas pelo número de picos, mas também por seus padrões variáveis no tempo. “Você pode pensar nisso como um código Morse. As pausas entre os sinais também transmitem informações”, explica Maass.

O cientista da computação da TU Graz, Wolfgang Maass, está trabalhando em sistemas de IA eficientes em energia e é inspirado no funcionamento do cérebro humano. Crédito: Lunghammer – TU Graz

Esse hardware baseado em pico pode reduzir o consumo de energia de aplicativos de rede neural não é novo. No entanto, até agora, isso não pôde ser realizado para as redes neurais muito profundas e grandes que são necessárias para uma classificação de imagem realmente boa.

No método de design de Maass e Stöckl, a transmissão de informações agora depende não apenas de quantos spikes um neurônio envia, mas também de quando o neurônio envia esses spikes. O tempo ou os intervalos temporais entre os picos praticamente se codificam e podem, portanto, transmitir uma grande quantidade de informações adicionais. “Nós mostramos que com apenas alguns picos – uma média de dois em nossas simulações – tanta informação pode ser transmitida entre os processadores quanto em um hardware com maior consumo de energia”, disse Maass.

Com seus resultados, os dois cientistas da computação da TU Graz fornecem uma nova abordagem para hardware que combina poucos picos e, portanto, baixo consumo de energia com desempenhos de última geração de aplicativos de IA. As descobertas podem acelerar drasticamente o desenvolvimento de aplicativos de IA com eficiência energética e são descritas na revista Nature Machine Intelligence.


Publicado em 13/03/2021 15h46

Artigo original:

Estudo original: