Uma arquitetura de controle híbrida que combina vantagens dos atuais controles de robôs quadrúpedes

Implantação no mundo real em cenários de busca e resgate. Crédito: Fabian Jenelten, Junzhe He, Farbod Farshidian e Marco Hutter

doi.org/10.1126/scirobotics.adh5401
Credibilidade: 999
#Robô 

Uma equipe de engenheiros de robótica do Robotic Systems Lab, na Suíça, desenvolveu uma arquitetura de controle híbrida que combina as vantagens dos atuais sistemas de controle de robôs quadrúpedes para dar aos robôs de quatro patas melhores capacidades de locomoção em terrenos acidentados.

Para o seu projeto, publicado na revista Science Robots, o grupo combinou partes de duas tecnologias atualmente utilizadas para melhorar a agilidade dos quadrúpedes.

Como observa a equipe de pesquisa, existem dois métodos principais usados atualmente pelos fabricantes de robôs para permitir que robôs de quatro patas andem em terrenos acidentados. A primeira é chamada de otimização de trajetória com dinâmica inversa; o segundo usa aprendizagem por reforço baseada em simulação.

A primeira abordagem é baseada em modelos e, embora ofereça uma série de vantagens, como permitir que o robô aprenda e, assim, ganhe habilidades de planejamento, também sofre de incompatibilidades entre o que foi aprendido e as condições do mundo real.

A segunda abordagem é robusta, especialmente no que diz respeito às habilidades de recuperação, mas é fraca no que diz respeito à aplicação de recompensas em ambientes que são extremamente desafiadores, como condições com poucos pontos de apoio “seguros”.

Credit: Fabian Jenelten, Junzhe He, Farbod Farshidian, and Marco Hutter

Para este novo estudo, a equipe de pesquisa tentou superar alguns dos problemas encontrados com as outras abordagens e, ao mesmo tempo, implementar os recursos que funcionam bem. O resultado é o que a equipe de pesquisa chama de pipeline (estrutura de controle) que eles chamam de Deep Tracking Control, e o implementaram em um robô que chamam de ANYMal.

Os pesquisadores têm trabalhado em suas ideias há vários anos com diversos parceiros – em 2019, por exemplo, eles trabalharam com o Intelligent Systems Lab para encontrar uma maneira de usar a técnica de machine learning para tornar um robô semelhante a um canino mais ágil e rápido. E há dois anos, eles estavam ensinando seu robô a aprender a caminhar.

O desenvolvimento do DTC foi um processo de quatro etapas: identificação de parâmetros e estimativa de incertezas, treinamento da rede de atuadores para modelar a dinâmica do software, controle da política usando os modelos criados e implantação em um sistema físico. Como parte da implementação física, o DTC foi treinado com dados de 4.000 simulações de robôs virtuais cobrindo uma ampla variedade de elementos do terreno em uma área que representa 76.000 metros quadrados.

Robô ANYmal cruzando trampolins. Crédito: Fabian Jenelten, Junzhe He, Farbod Farshidian e Marco Hutter

Os testes do ANYMal mostraram que a sua capacidade de optimizar trajectórias com reforços permitiu-lhe posicionar melhor as suas pernas em condições de terreno variáveis, o que por sua vez permitiu encontrar os melhores pontos de apoio possíveis, dados os que estavam disponíveis. Também permitiu uma melhor recuperação de quedas. Juntas, essas capacidades permitiram que o robô atravessasse paisagens difíceis com menos falhas do que outros robôs.


Publicado em 23/01/2024 20h46

Artigo original:

Estudo original: