Como Garantir a Segurança dos Veículos Autônomos

Imagem via Pixabay

#Autônomo 

À medida que os carros e aviões controlados por computador se tornam mais comuns, a chave para prevenir acidentes, mostram os investigadores, é saber o que não se sabe.

Carros e aviões sem motorista não são mais coisas do futuro. Só na cidade de São Francisco, duas empresas de táxi registaram colectivamente 13 milhões de quilómetros de condução autónoma até Agosto de 2023. E mais de 850.000 veículos aéreos autónomos, ou drones, estão registados nos Estados Unidos – sem contar os pertencentes aos militares.

Mas existem preocupações legítimas sobre segurança. Por exemplo, num período de 10 meses que terminou em Maio de 2022, a Administração Nacional de Segurança do Tráfego Rodoviário relatou quase 400 acidentes envolvendo automóveis utilizando alguma forma de controle autónomo. Seis pessoas morreram em consequência destes acidentes e cinco ficaram gravemente feridas.

Existe também um relatório de colisão de veículos autônomos disponível.

A maneira usual de resolver esse problema – às vezes chamada de “teste por exaustão” – envolve testar esses sistemas até que você esteja satisfeito com a segurança deles. Mas você nunca pode ter certeza de que esse processo revelará todas as falhas potenciais. “As pessoas realizam testes até esgotarem seus recursos e paciência”, disse Sayan Mitra, cientista da computação da Universidade de Illinois, Urbana-Champaign. Contudo, os testes por si só não podem fornecer garantias.

Mitra e seus colegas podem. Sua equipe conseguiu provar a segurança das capacidades de rastreamento de pista para carros e sistemas de pouso para aeronaves autônomas. Sua estratégia agora está sendo usada para ajudar a pousar drones em porta-aviões, e a Boeing planeja testá-la em uma aeronave experimental este ano. “Seu método de fornecer garantias de segurança de ponta a ponta é muito importante”, disse Corina Pasareanu, cientista pesquisadora da Universidade Carnegie Mellon e do Centro de Pesquisa Ames da NASA.

Seu trabalho envolve garantir os resultados dos algoritmos de machine learning usados para informar veículos autônomos. Em alto nível, muitos veículos autônomos têm dois componentes: um sistema perceptual e um sistema de controle. O sistema de percepção informa, por exemplo, a que distância o seu carro está do centro da pista, ou em que direção um avião está se dirigindo e qual é o seu ângulo em relação ao horizonte. O sistema opera alimentando dados brutos de câmeras e outras ferramentas sensoriais para algoritmos de machine learning baseados em redes neurais, que recriam o ambiente fora do veículo.

Estas avaliações são então enviadas para um sistema separado, o módulo de controle, que decide o que fazer. Se houver um obstáculo próximo, por exemplo, ele decide se deve acionar os freios ou contorná-lo. De acordo com Luca Carlone, professor associado do Instituto de Tecnologia de Massachusetts, embora o módulo de controle dependa de tecnologia bem estabelecida, “ele toma decisões com base nos resultados da percepção e não há garantia de que esses resultados estejam corretos”.

Para garantir a segurança, a equipe da Mitra trabalhou para garantir a confiabilidade do sistema de percepção do veículo. Eles primeiro presumiram que é possível garantir a segurança quando uma representação perfeita do mundo exterior está disponível. Eles então determinaram quanto erro o sistema de percepção introduz na recriação do ambiente do veículo.

A chave para esta estratégia é quantificar as incertezas envolvidas, conhecidas como banda de erro – ou as “incógnitas conhecidas”, como disse Mitra. Esse cálculo vem do que ele e sua equipe chamam de contrato de percepção. Na engenharia de software, um contrato é um compromisso de que, para uma determinada entrada de um programa de computador, a saída ficará dentro de um intervalo especificado. Descobrir esse intervalo não é fácil. Quão precisos são os sensores do carro? Quanta neblina, chuva ou brilho solar um drone pode tolerar? Mas se for possível manter o veículo dentro de uma faixa especificada de incerteza, e se a determinação dessa faixa for suficientemente precisa, a equipe da Mitra provou que é possível garantir sua segurança.

Seu trabalho envolve garantir os resultados dos algoritmos de machine learning usados para informar veículos autônomos. Em alto nível, muitos veículos autônomos têm dois componentes: um sistema perceptivo e um sistema de controle. O sistema de percepção informa, por exemplo, a que distância o seu carro está do centro da pista, ou em que direção um avião está se dirigindo e qual é o seu ângulo em relação ao horizonte. O sistema opera alimentando dados brutos de câmeras e outras ferramentas sensoriais para algoritmos de machine learning baseados em redes neurais, que recriam o ambiente fora do veículo.

Estas avaliações são então enviadas para um sistema separado, o módulo de controle, que decide o que fazer. Se houver um obstáculo próximo, por exemplo, ele decide se deve acionar os freios ou contorná-lo. De acordo com Luca Carlone, professor associado do Instituto de Tecnologia de Massachusetts, embora o módulo de controle dependa de tecnologia bem estabelecida, “ele toma decisões com base nos resultados da percepção e não há garantia de que esses resultados estejam corretos”.

Para garantir a segurança, a equipe da Mitra trabalhou para garantir a confiabilidade do sistema de percepção do veículo. Eles primeiro presumiram que é possível garantir a segurança quando uma representação perfeita do mundo exterior está disponível. Eles então determinaram quanto erro o sistema de percepção introduz na recriação do ambiente do veículo.

A chave para esta estratégia é quantificar as incertezas envolvidas, conhecidas como banda de erro – ou as “incógnitas conhecidas”, como disse Mitra. Esse cálculo vem do que ele e sua equipe chamam de contrato de percepção. Na engenharia de software, um contrato é um compromisso de que, para uma determinada entrada de um programa de computador, a saída ficará dentro de um intervalo especificado. Descobrir esse intervalo não é fácil. Quão precisos são os sensores do carro? Quanta neblina, chuva ou brilho solar um drone pode tolerar? Mas se for possível manter o veículo dentro de uma faixa especificada de incerteza, e se a determinação dessa faixa for suficientemente precisa, a equipe da Mitra provou que é possível garantir sua segurança.

É uma situação familiar para qualquer pessoa com um velocímetro impreciso. Se você sabe que o dispositivo nunca desliga a mais de 8 km por hora, ainda pode evitar o excesso de velocidade permanecendo sempre 8 km / h abaixo do limite de velocidade (conforme indicado pelo seu velocímetro não confiável). Um contrato de percepção oferece uma garantia semelhante de segurança de um sistema imperfeito que depende de machine learning.

“Você não precisa de percepção perfeita”, disse Carlone. “Você só quer que seja bom o suficiente para não colocar a segurança em risco.” As maiores contribuições da equipe, disse ele, são “introduzir toda a ideia dos contratos de percepção” e fornecer os métodos para construí-los. Eles fizeram isso recorrendo a técnicas do ramo da ciência da computação chamado verificação formal, que fornece uma forma matemática de confirmar se o comportamento de um sistema satisfaz um conjunto de requisitos.

“Mesmo que não saibamos exatamente como a rede neural faz o que faz”, disse Mitra, eles mostraram que ainda é possível provar numericamente que a incerteza da saída de uma rede neural está dentro de certos limites. E, se for esse o caso, o sistema estará seguro. “Podemos então fornecer uma garantia estatística sobre se (e em que grau) uma determinada rede neural realmente atenderá a esses limites.”

A empresa aeroespacial Sierra Nevada está atualmente testando essas garantias de segurança ao pousar um drone em um porta-aviões. Este problema é, de certa forma, mais complicado do que dirigir carros, devido à dimensão extra envolvida no voo. “No pouso, há duas tarefas principais”, disse Dragos Margineantu, tecnólogo-chefe de IA da Boeing, “alinhar o avião com a pista e garantir que a pista esteja livre de obstáculos. Nosso trabalho com Sayan envolve obter garantias para essas duas funções.”

“Simulações usando o algoritmo de Sayan mostram que o alinhamento [de um avião antes do pouso] melhora”, disse ele. O próximo passo, planejado para o final deste ano, é empregar esses sistemas durante o pouso de um avião experimental da Boeing. Um dos maiores desafios, observou Margineantu, será descobrir o que não sabemos – “determinar a incerteza nas nossas estimativas” – e ver como isso afeta a segurança. “A maioria dos erros acontece quando fazemos coisas que pensamos que sabemos – e acontece que não sabemos.”


Publicado em 22/01/2024 08h04

Artigo original: