Estrutura de rede neural convolucional para prever a vida útil restante em máquinas

Uma equipe de pesquisadores, liderada pelo Dr. Zhenghua Chen da Agência para Ciência, Tecnologia e Pesquisa, Cingapura, questionou a escolha convencional de escolher RNNs em vez de CNNs e propôs uma série de novas CNNs, que mostraram resultados comparáveis aos métodos RNN para RUL predição. Crédito: Associação Chinesa de Automação

As indústrias modernas exigem máquinas eficientes e confiáveis. Para garantir a estabilidade do equipamento industrial e evitar paradas desnecessárias, é importante medir com precisão a vida útil restante de uma máquina (RUL). Isso foi feito usando abordagens baseadas em deep learning. Em particular, redes neurais profundas são consideradas promissoras nesse sentido.

Isso inclui redes neurais recorrentes (RNNs), redes neurais convolucionais (CNNs) ou redes híbridas. Entre eles, as abordagens baseadas em RNN capturam efetivamente informações sequenciais, permitindo que tenham um desempenho melhor do que os métodos baseados em CNN. No entanto, ao contrário das CNNs, elas demoram mais para treinar e perdem recursos importantes dos sistemas industriais. Mesmo híbridos RNN-CNN, explorados por estudos anteriores, tendem a ser subótimos.

Recentemente, uma equipe de pesquisadores, liderada pelo Dr. Zhenghua Chen, da Agência para Ciência, Tecnologia e Pesquisa de Cingapura, questionou a escolha convencional de escolher RNNs em vez de CNNs e propôs uma série de novas CNNs, que mostraram resultados comparáveis aos métodos RNN para previsão RUL.

“As abordagens existentes baseadas na CNN não são projetadas de acordo com o princípio clássico da CNN, ou seja, um tamanho de kernel menor (filtro de extração de recursos) e um número de canal maior, o que reduz seu desempenho. tamanho da região na entrada que produz o recurso”, explicou o Dr. Chen, falando de sua motivação por trás do estudo, que foi publicado no IEEE/CAA Journal of Automatica Sinica.

Primeiro, o estudo estabeleceu que kernels de convolução unidimensionais de pequeno porte e redes profundas com grande campo receptivo são desejáveis, pois são eficientes em aprender características de sinais de séries temporais de entrada e modelam melhor a informação sequencial. Com base nisso, a equipe propôs uma nova arquitetura CNN usando uma combinação de três camadas: uma camada de convolução seguida de normalização em lote e camadas de unidades lineares retificadas para formar uma unidade convolucional. Essas unidades foram empilhadas juntas para formar uma rede de modo que sua altura e largura diminuíssem e o número de canais aumentasse com a profundidade da rede. As camadas totalmente conectadas foram então usadas para prever os valores de RUL.

Em seguida, a equipe desenvolveu um esquema de codificação de posição para desenvolver o PE-Net, no qual duas transformações traduziam as informações de posição codificadas e os sinais de entrada no mesmo espaço para fusão. Além disso, as CNNs foram otimizadas usando a perda de erro quadrático médio (MSE) como métrica de desempenho. Por fim, a equipe testou o PE-Net realizando experimentos no conjunto de dados C-MAPSS, um benchmark bem conhecido para previsão de RUL.

O PE-Net teve um desempenho melhor do que as CNNs existentes na maioria dos conjuntos de dados e superou significativamente as redes neurais artificiais de “memória de longo prazo” para casos complexos. Além disso, as transformações subjacentes seguidas pela fusão de “adição elementar” melhoraram a precisão da previsão RUL a um ponto em que superou as abordagens RNN padrão.

“O PE-Net utiliza big data e tecnologia de deep learning para identificar de forma automática e precisa os componentes a serem reparados, coletando dados de sensores instalados em sistemas industriais. No futuro, com o avanço da IA, essa tecnologia poderá ajudar a reduzir significativamente o custo de mão de obra para a manutenção de máquinas industriais, evitando erros fatais”, conclui o Dr. Chen, falando sobre as potenciais aplicações de seu trabalho.


Publicado em 20/10/2022 13h19

Artigo original:

Estudo original: