Aperfeiçoamento de carros autônomos: isso pode ser feito?

Crédito: posteriori / Shutterstock

Os veículos robóticos têm sido usados em ambientes perigosos há décadas, desde a desativação da usina nuclear de Fukushima ou inspecionando a infraestrutura de energia subaquática no Mar do Norte. Mais recentemente, veículos autônomos de barcos a carrinhos de entrega de supermercado fizeram a transição suave dos centros de pesquisa para o mundo real com muito poucos soluços.

No entanto, a chegada prometida de carros autônomos não passou do estágio de testes. E em um test drive de um carro autônomo Uber em 2018, um pedestre foi morto pelo veículo. Embora esses acidentes ocorram todos os dias quando os humanos estão ao volante, o público considera os carros sem motorista padrões de segurança muito mais elevados, interpretando os acidentes isolados como prova de que esses veículos são inseguros demais para serem liberados em vias públicas.

Programar o carro autônomo perfeito que sempre tomará a decisão mais segura é uma tarefa enorme e técnica. Ao contrário de outros veículos autônomos, que geralmente são implantados em ambientes rigidamente controlados, os carros autônomos devem funcionar na rede rodoviária infinitamente imprevisível, processando rapidamente muitas variáveis complexas para permanecerem seguros.

Inspirados pelo código da estrada, estamos trabalhando em um conjunto de regras que ajudarão os carros autônomos a tomar as decisões mais seguras em todos os cenários imagináveis. Verificar se essas regras funcionam é o obstáculo final que devemos superar para colocar carros autônomos confiáveis em segurança em nossas estradas.

Primeira lei de Asimov

O autor de ficção científica Isaac Asimov escreveu as “três leis da robótica” em 1942. A primeira e mais importante lei diz: “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano.” Quando carros que dirigem sozinhos ferem humanos, eles claramente violam esta primeira lei.

Se ao menos fosse tão fácil quanto robôs autônomos de entrega de supermercado. Crédito: Jonathan Weiss / Shutterstock

Nós, da National Robotarium, estamos conduzindo pesquisas com o objetivo de garantir que os veículos autônomos sempre tomem decisões que estejam de acordo com esta lei. Tal garantia forneceria a solução para as gravíssimas preocupações de segurança que estão impedindo os carros autônomos de decolar no mundo todo.

O software de IA é, na verdade, muito bom em aprender sobre cenários que nunca enfrentou. Usando “redes neurais” que se inspiram no layout do cérebro humano, esse software pode detectar padrões nos dados, como os movimentos de carros e pedestres, e então relembrar esses padrões em novos cenários.

Mas ainda precisamos provar que quaisquer regras de segurança ensinadas a carros autônomos funcionarão nesses novos cenários. Para fazer isso, podemos recorrer à verificação formal: o método que os cientistas da computação usam para provar que uma regra funciona em todas as circunstâncias.

Em matemática, por exemplo, as regras podem provar que x + y é igual ay + x sem testar todos os valores possíveis de x e y. A verificação formal faz algo semelhante: permite-nos provar como o software de IA vai reagir a diferentes cenários sem ter que testar exaustivamente todos os cenários que podem ocorrer em vias públicas.

Um dos sucessos recentes mais notáveis na área é a verificação de um sistema de IA que usa redes neurais para evitar colisões entre aeronaves autônomas. Os pesquisadores verificaram formalmente com sucesso que o sistema sempre responderá corretamente, independentemente das manobras horizontais e verticais da aeronave envolvida.

O especialista em ética de robôs Patrick Lin apresenta a complexidade da tomada de decisão automatizada em carros autônomos.

Codificação de rodovia

Os motoristas humanos seguem um código de trânsito para manter todos os seus usuários seguros, que depende do cérebro humano para aprender essas regras e aplicá-las de maneira sensata em inúmeros cenários do mundo real. Podemos ensinar o código das estradas aos carros que dirigem sozinhos. Isso exige que desviemos cada regra do código, ensinemos as redes neurais dos veículos a entender como obedecer a cada regra e, em seguida, verifiquemos se podemos confiar que obedecerão com segurança a essas regras em todas as circunstâncias.

No entanto, o desafio de verificar se essas regras serão seguidas com segurança é complicado ao examinar as consequências da frase “nunca deve” no código de rodovias. Para tornar um carro autônomo tão reativo quanto um motorista humano em qualquer cenário, devemos programar essas políticas de forma que leve em conta as nuances, o risco ponderado e o cenário ocasional onde diferentes regras estão em conflito direto, exigindo que o carro ignore um ou mais deles.

Essa tarefa não pode ser deixada apenas para os programadores – exigirá a opinião de advogados, especialistas em segurança, engenheiros de sistema e legisladores. Dentro do nosso projeto AISEC recém-formado, uma equipe de pesquisadores está projetando uma ferramenta para facilitar o tipo de colaboração interdisciplinar necessária para criar padrões éticos e legais para carros autônomos.

Ensinar os carros autônomos a serem perfeitos será um processo dinâmico: dependente de como os especialistas jurídicos, culturais e tecnológicos definem a perfeição ao longo do tempo. A ferramenta AISEC está sendo construída com isso em mente, oferecendo um “painel de controle de missão” para monitorar, complementar e adaptar as regras de maior sucesso que regem os carros autônomos, que serão disponibilizados para a indústria.

Esperamos entregar o primeiro protótipo experimental da ferramenta AISEC até 2024. Mas ainda precisamos criar métodos de verificação adaptativos para lidar com as preocupações remanescentes de segurança e proteção, e isso provavelmente levará anos para construir e incorporar em carros autônomos.

Acidentes envolvendo carros autônomos sempre geram manchetes. Um carro autônomo que reconhece um pedestre e para antes de atingi-lo 99% das vezes é motivo de comemoração em laboratórios de pesquisa, mas uma máquina de matar no mundo real. Ao criar regras de segurança robustas e verificáveis para carros autônomos, estamos tentando tornar esse 1% dos acidentes uma coisa do passado.


Publicado em 09/04/2021 12h38

Artigo original:

Estudo original: