‘O tweet de Elon não corresponde à realidade da engenharia’
O CEO da Tesla, Elon Musk, tem exagerado as capacidades do sistema avançado de assistência ao motorista da empresa, disse o diretor do software Autopilot da empresa ao Departamento de Veículos Motorizados da Califórnia. Os comentários vieram de um memorando divulgado pelo grupo de transparência jurídica PlainSite, que obteve os documentos de uma solicitação de registros públicos.
Foi a última revelação sobre a crescente lacuna entre o que Musk diz publicamente sobre o Autopilot e o que o Autopilot pode realmente fazer. E coincide com Tesla ficando sob maior escrutínio depois que um veículo Tesla sem ninguém no banco do motorista bateu no Texas, matando dois homens.
“O tweet de Elon não corresponde à realidade da engenharia por CJ. A Tesla está no Nível 2 atualmente”, disse o DMV da Califórnia no memorando sobre sua teleconferência em 9 de março com representantes da Tesla, incluindo o diretor do software Autopilot CJ Moore. A tecnologia de nível 2 se refere a um sistema de direção semiautomatizado, que requer supervisão de um motorista humano.
Em uma teleconferência de resultados em janeiro, Musk disse aos investidores que estava “altamente confiante de que o carro será capaz de dirigir sozinho com confiabilidade superior à humana este ano”. (Parece que o DMV estava se referindo a esses comentários de janeiro, que Moore interpretou erroneamente como um tweet de Musk.)
Em outubro passado, a Tesla apresentou um novo produto chamado “Full Self-Driving” (FSD) beta para proprietários de veículos em seu Programa de Acesso Antecipado. A atualização permitiu que os motoristas acessassem o sistema de assistência ao motorista parcialmente automatizado do piloto automático nas ruas da cidade e estradas locais. O programa de acesso antecipado é usado como uma plataforma de teste para ajudar a corrigir bugs de software. No memorando do DMV, Tesla disse que em 9 de março havia 824 veículos no programa piloto, incluindo 753 funcionários e 71 não funcionários.
Musk disse que a empresa estava lidando com a atualização do software “com muito cuidado”. Os motoristas ainda devem manter as mãos no volante e devem estar preparados para assumir o controle de seu Tesla a qualquer momento. Mas ele também ofereceu previsões elevadas sobre a capacidade de Tesla de alcançar autonomia total que conflitam com o que seus próprios engenheiros estão dizendo aos reguladores.
É improvável que a Tesla alcance nível 5 (L5) de autonomia, no qual seus carros podem se dirigir a qualquer lugar, sob quaisquer condições, sem qualquer supervisão humana, até o final de 2021, disseram representantes da Tesla ao DMV.
A proporção de interação do motorista precisaria ser da ordem de 1 ou 2 milhões de milhas por interação do motorista para passar para níveis mais altos de automação. Tesla indicou que Elon está extrapolando as taxas de melhoria ao falar sobre as capacidades L5. Tesla não sabia dizer se a taxa de melhoria chegaria a L5 no final do ano.
Esta não é a primeira vez que as comunicações privadas de Tesla com o DMV contradizem as declarações públicas de Musk sobre as capacidades autônomas de sua empresa. Em março, o PlainSite publicou comunicações de dezembro passado entre o conselheiro geral associado da Tesla, Eric Williams, e o chefe do ramo de veículos autônomos do DMV da Califórnia, Miguel Acosta. Nele, Williams observa que “nem o piloto automático nem o FSD Capability são um sistema autônomo e, atualmente, nenhum recurso abrangente, seja individual ou coletivamente, é autônomo ou torna nossos veículos autônomos”. Em outras palavras, o FSD beta da Tesla é autônomo apenas no nome.
(Al Prescott, conselheiro geral interino da Tesla, também esteve envolvido na reunião de dezembro com o DMV. Prescott desde então trocou a Tesla pelo fabricante LIDAR, Luminar.)
Tesla e Musk há muito são criticados por exagerar as capacidades do sistema Autopilot da empresa, que em sua forma mais básica pode centralizar um veículo Tesla em uma pista e em torno de curvas e ajustar a velocidade do carro com base no veículo à frente. O uso de nomes de marcas como Autopilot e FSD também ajudou a contribuir para um ambiente no qual os clientes da Tesla são enganados ao acreditar que seus veículos podem realmente dirigir sozinhos.
Houve uma série de acidentes fatais envolvendo veículos Tesla com o piloto automático habilitado. A última ocorreu em Spring, Texas, na qual dois homens foram mortos depois que seu Tesla se espatifou contra uma árvore. A polícia local disse que não havia ninguém no assento do motorista no momento do acidente, levando a especulações de que os homens estavam fazendo mau uso do piloto automático. Mais tarde, Tesla afirmou que o piloto automático não estava em uso no momento do acidente e alguém pode estar no assento do motorista também.
A Administração Nacional de Segurança de Tráfego Rodoviário dos EUA e o Conselho Nacional de Segurança de Transporte estão investigando o acidente, além de dezenas de outros incidentes envolvendo o piloto automático do Tesla. A Tesla não respondeu a um pedido de comentário, provavelmente porque a empresa dissolveu sua assessoria de imprensa e normalmente não responde mais aos pedidos da mídia.
Publicado em 09/05/2021 14h20
Artigo original: