Dispositivo de hardware avançado reduz o consumo de energia da IA em 1000x

Imagem via Pexels

doi.org/10.1038/s44335-024-00003-3
Credibilidade: 999
#Inteligência Artificial 

Este dispositivo pode reduzir o consumo de energia da inteligência artificial em pelo menos 1.000 vezes

Pesquisadores em engenharia na University of Minnesota Twin Cities desenvolveram um dispositivo de hardware avançado que pode diminuir o uso de energia em aplicações de computação de inteligência artificial (IA) em pelo menos um fator de 1.000.

A pesquisa foi publicada na npj Unconventional Computing, uma revista científica revisada por pares publicada pela Nature. Os pesquisadores têm várias patentes sobre a tecnologia usada no dispositivo.

Com a crescente demanda por aplicações de IA, os pesquisadores têm buscado maneiras de criar um processo mais eficiente em termos de energia, mantendo o desempenho alto e os custos baixos. Normalmente, os processos de máquina ou inteligência artificial transferem dados entre a lógica (onde as informações são processadas dentro de um sistema) e a memória (onde os dados são armazenados), consumindo uma grande quantidade de energia e potência.

Um dispositivo de hardware personalizado planeja ajudar a inteligência artificial sendo mais eficiente em termos de energia. Crédito: University of Minnesota Twin Cities

Introdução à Tecnologia CRAM

Uma equipe de pesquisadores da Faculdade de Ciências e Engenharia da Universidade de Minnesota demonstrou um novo modelo em que os dados nunca saem da memória, chamado memória computacional de acesso aleatório (CRAM).

Este trabalho é a primeira demonstração experimental de CRAM, em que os dados podem ser processados “”inteiramente dentro do conjunto de memória sem a necessidade de sair da grade onde um computador armazena informações, – disse Yang Lv, pesquisador de pós-doutorado do Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota e primeiro autor do artigo.

A Agência Internacional de Energia (AIE) emitiu uma previsão global de uso de energia em março de 2024, prevendo que o consumo de energia para IA provavelmente dobrará de 460 terawatts-hora (TWh) em 2022 para 1.000 TWh em 2026. Isso é aproximadamente equivalente ao consumo de eletricidade de todo o país do Japão.

De acordo com os autores do novo artigo, estima-se que um acelerador de inferência de machine learning baseado em CRAM alcance uma melhoria na ordem de 1.000. Outro exemplo mostrou uma economia de energia de 2.500 e 1.700 vezes em comparação aos métodos tradicionais.

Evolução da Pesquisa

Esta pesquisa levou mais de duas décadas para ser feita,

Nosso conceito inicial de usar células de memória diretamente para computação há 20 anos foi considerado loucura,- disse Jian-Ping Wang, o autor sênior do artigo e um distinto professor McKnight e titular da cadeira Robert F. Hartmann no Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota.

Com um grupo de alunos em evolução desde 2003 e uma equipe de professores verdadeiramente interdisciplinar construída na Universidade de Minnesota, desde física, ciência e engenharia de materiais, ciência e engenharia da computação, até modelagem e benchmarking, e criação de hardware, fomos capazes de obter resultados positivos e agora demonstramos que esse tipo de tecnologia é viável e está pronta para ser incorporada à tecnologia,- disse Wang.

Esta pesquisa é parte de um esforço coerente e duradouro, construído sobre a pesquisa inovadora e patenteada de Wang e seus colaboradores sobre dispositivos de Junções de Túnel Magnético (MTJs), que são dispositivos nanoestruturados usados “”para melhorar discos rígidos, sensores e outros sistemas de microeletrônica, incluindo Memória de Acesso Aleatório Magnético (MRAM), que tem sido usada em sistemas embarcados, como microcontroladores e smartwatches.

A arquitetura CRAM permite a computação real na e pela memória e quebra a parede entre a computação e a memória como o gargalo na arquitetura von Neumann tradicional, um design teórico para um computador de programa armazenado que serve como base para quase todos os computadores modernos.

Como um substrato de computação na memória digital extremamente eficiente em termos de energia, a CRAM é muito flexível, pois a computação pode ser realizada em qualquer local na matriz de memória. Assim, podemos reconfigurar a CRAM para melhor atender às necessidades de desempenho de um conjunto diversificado de algoritmos de IA, – disse Ulya Karpuzcu, especialista em arquitetura de computação, coautora do artigo e professora associada do Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota. Ela é mais eficiente em termos de energia do que os blocos de construção tradicionais para os sistemas de IA atuais. –

A CRAM realiza cálculos diretamente dentro das células de memória, utilizando a estrutura de matriz de forma eficiente, o que elimina a necessidade de transferências de dados lentas e que consomem muita energia, explicou Karpuzcu.

O dispositivo de memória de acesso aleatório de curto prazo, ou RAM, mais eficiente usa quatro ou cinco transistores para codificar um ou um zero, mas um MTJ, um dispositivo spintrônico, pode executar a mesma função em uma fração da energia, com maior velocidade e é resiliente a ambientes adversos. Os dispositivos spintrônicos aproveitam o spin dos elétrons em vez da carga elétrica para armazenar dados, fornecendo uma alternativa mais eficiente aos chips tradicionais baseados em transistores.

Atualmente, a equipe planeja trabalhar com líderes da indústria de semicondutores, incluindo aqueles em Minnesota, para fornecer demonstrações em larga escala e produzir o hardware para avançar a funcionalidade da IA.


Publicado em 30/07/2024 20h26

Artigo original:

Estudo original: