Um sistema para reproduzir diferentes habilidades de locomoção de animais em robôs

Crédito: Google.

Pesquisadores do Google Research e da Universidade da Califórnia, Berkeley, desenvolveram recentemente um sistema de aprendizagem de imitação que pode permitir uma variedade de comportamentos de locomoção ágil em robôs. Sua técnica, apresentada em um artigo pré-publicado no arXiv, permite que robôs adquiram novas habilidades imitando animais.

“Este projeto se baseia em alguns trabalhos anteriores de computação gráfica, que treinou personagens simulados para se mover imitando dados de captura de movimento humano”, disse Jason Peng, um dos pesquisadores que realizaram o estudo, ao TechXplore. “A maioria dessas técnicas foi aplicada principalmente em simulação, mas em nosso projeto recente demos o primeiro passo para aplicá-las a robôs reais.”

Peng e seus colegas inicialmente treinaram um robô de quatro patas para imitar os movimentos e o estilo de caminhar de um cachorro em um ambiente simulado. Seu sistema foi treinado em dados de movimento registrados de um cão real, usando uma abordagem conhecida como aprendizado por reforço.

“Uma das vantagens do treinamento em simulação é que ele é muito rápido, então podemos simular meses de treinamento em questão de dias”, explicou Peng. “Uma vez que o robô tenha sido treinado em simulação, podemos adaptar o que ele aprendeu a um robô real, usando apenas alguns minutos de dados coletados no mundo real.”

O método de aprendizagem por imitação empregado por Peng e seus colegas é muito mais escalável do que as técnicas mais tradicionais para projetar controladores robóticos. Na verdade, em vez de projetar um novo controlador para cada habilidade que se tenta reproduzir em robôs, sua abordagem pode simplesmente treinar robôs para atingir estilos de locomoção específicos, mostrando-lhes alguns exemplos de animais realizando os movimentos desejados. O robô pode então aprender automaticamente novas habilidades de locomoção simplesmente observando esses exemplos.

Créditos: Google

Peng e seus colegas avaliaram sua abordagem em uma série de experimentos, treinando Laikago, um robô quadrúpede 18-DoF, para reproduzir diferentes comportamentos de locomoção animal, incluindo diferentes formas de correr, pular e virar. Notavelmente, sua técnica permitiu ao robô sintetizar automaticamente controladores para uma variedade de estilos de locomoção de animais, transferindo efetivamente as habilidades aprendidas em ambientes simulados para o mundo real.

“O resultado mais empolgante para nós foi que o mesmo método subjacente pode aprender uma grande variedade de habilidades que vão desde andar a pular e girar dinâmicos e todas as habilidades aprendidas na simulação também podem ser transferidas para um robô real”, disse Peng. “Essas técnicas de aprendizagem por imitação podem tornar muito mais fácil construir grandes repertórios de habilidades para robôs que podem permitir que eles se movam e interajam de forma mais ágil com o mundo real.”

No futuro, o sistema de aprendizagem por imitação desenvolvido por Peng e seus colegas poderia permitir uma ampla variedade de movimentos ágeis em robôs inspirados em animais. Atualmente, sua técnica só pode ser treinada com dados de movimento, mas os pesquisadores estão tentando desenvolvê-la ainda mais, para que também possa aprender com vídeos de animais.

“Agora estamos interessados em fazer com que os robôs imitem diferentes tipos de dados de movimento, como clipes de vídeo”, disse Peng. “Os dados de captura de movimento às vezes podem ser bastante difíceis de gravar, especialmente de animais, pois colocar um cachorro em um estúdio mocap pode ser complicado. Seria ótimo se pudéssemos usar nossos telefones para gravar alguns clipes de vídeo do que queremos que o robô fazer e depois fazer com que o robô aprenda a reproduzir essas habilidades automaticamente.”


Publicado em 08/12/2020 21h24

Artigo original:

Estudo original: