Novo algoritmo ajuda veículos autônomos a se encontrarem, seja verão ou inverno

Crédito: Unsplash / CC0 Public Domain

Sem GPS, os sistemas autônomos se perdem facilmente. Agora, um novo algoritmo desenvolvido na Caltech permite que sistemas autônomos reconheçam onde estão simplesmente olhando para o terreno ao seu redor – e pela primeira vez, a tecnologia funciona independentemente das mudanças sazonais nesse terreno.

Detalhes sobre o processo foram publicados no dia 23 de junho na revista Science Robotics.

O processo geral, conhecido como navegação visual relativa ao terreno (VTRN), foi desenvolvido pela primeira vez na década de 1960. Ao comparar o terreno próximo a imagens de satélite de alta resolução, os sistemas autônomos podem se localizar.

O problema é que, para que funcione, a geração atual do VTRN exige que o terreno que está examinando corresponda de perto às imagens em seu banco de dados. Qualquer coisa que altere ou obscureça o terreno, como cobertura de neve ou folhas caídas, faz com que as imagens não correspondam e prejudica o sistema. Portanto, a menos que haja um banco de dados das imagens da paisagem em todas as condições concebíveis, os sistemas VTRN podem ser facilmente confundidos.

Para superar esse desafio, uma equipe do laboratório de Soon-Jo Chung, professor Bren de Aeroespacial e Controle e Sistemas Dinâmicos e cientista pesquisador do JPL, que Caltech gerencia para a NASA, se voltou para o aprendizado profundo e inteligência artificial (IA) para remover sazonalidade conteúdo que atrapalha os sistemas VTRN atuais.

Crédito: Instituto de Tecnologia da Califórnia

“A regra é que ambas as imagens – a do satélite e a do veículo autônomo – precisam ter conteúdo idêntico para que as técnicas atuais funcionem. As diferenças que podem lidar são sobre o que pode ser feito com um filtro do Instagram que muda os matizes de uma imagem “, diz Anthony Fragoso (MS ’14, Ph.D. ’18), conferencista e cientista da equipe e autor principal do artigo da Science Robotics. “Em sistemas reais, no entanto, as coisas mudam drasticamente com base na estação porque as imagens não contêm mais os mesmos objetos e não podem ser comparadas diretamente.”

O processo – desenvolvido por Chung e Fragoso em colaboração com o estudante de graduação Connor Lee (BS ’17, MS ’19) e o estudante de graduação Austin McCoy – usa o que é conhecido como “aprendizado autossupervisionado”. Enquanto a maioria das estratégias de visão computacional dependem de anotadores humanos que cuidam de grandes conjuntos de dados para ensinar um algoritmo a reconhecer o que está vendo, este, em vez disso, permite que o algoritmo se auto-ensine. A IA procura padrões nas imagens, revelando detalhes e recursos que provavelmente seriam perdidos pelos humanos.

Complementar a geração atual de VTRN com o novo sistema produz uma localização mais precisa: em um experimento, os pesquisadores tentaram localizar imagens de folhagem de verão contra imagens de folhagem de inverno usando uma técnica VTRN baseada em correlação. Eles descobriram que o desempenho não era melhor do que um cara ou coroa, com 50 por cento das tentativas resultando em falhas de navegação. Em contraste, a inserção do novo algoritmo no VTRN funcionou muito melhor: 92 por cento das tentativas foram correspondidas corretamente e os 8 por cento restantes puderam ser identificados como problemáticos com antecedência e, então, facilmente gerenciados usando outras técnicas de navegação estabelecidas.

“Os computadores podem encontrar padrões obscuros que nossos olhos não podem ver e podem detectar até mesmo a menor tendência”, diz Lee. A VTRN corria o risco de se tornar uma tecnologia inviável em ambientes comuns, mas desafiadores, diz ele. “Resgatamos décadas de trabalho para resolver esse problema”.

Além da utilidade para drones autônomos na Terra, o sistema também possui aplicativos para missões espaciais. O sistema de entrada, descida e pouso (EDL) na missão do JPL Mars 2020 Perseverance rover, por exemplo, usou o VTRN pela primeira vez no Planeta Vermelho para pousar na cratera de Jezero, um local que antes era considerado muito perigoso para um cofre entrada. Com rovers como o Perseverance, “uma certa quantidade de direção autônoma é necessária”, diz Chung, “já que as transmissões levam sete minutos para viajar entre a Terra e Marte, e não há GPS em Marte.” A equipe considerou as regiões polares de Marte que também têm mudanças sazonais intensas, condições semelhantes às da Terra, e o novo sistema poderia permitir uma navegação aprimorada para apoiar objetivos científicos, incluindo a busca por água.

Em seguida, Fragoso, Lee e Chung irão expandir a tecnologia para levar em conta as mudanças no clima: neblina, chuva, neve e assim por diante. Se for bem-sucedido, seu trabalho pode ajudar a melhorar os sistemas de navegação para carros sem motorista.


Publicado em 26/06/2021 16h05

Artigo original:

Estudo original: