O sistema de Full Self-Driving da Tesla, que na verdade é uma automação de Nível 2, é investigado pelo órgão rodoviário americano por centenas de acidentes. Há casos de carros que bateram em veículos de emergência parados e um homem foi processado por homicídio culposo, conforme divulgado pela Associated Press.
CEO da empresa revelou novidade no Twitter
Elon Musk, CEO da Tesla, divulgou a atualização sobre o beta do Autopilot no Twitter, sua outra empresa. Na publicação, Musk explica que acesso ao beta do Full Self-Driving estará disponível para todos que realizarem a compra — feita diretamente pelo painel do veículo. O FSD custa US$ 15.000 e é uma “expansão” do Autopilot, sistema de direção assistida com recursos como de velocidade de cruzeiro, troca e controle de faixa de pista, estacionamento automático e detecção de veículos. O Autopilot é recomendado para o uso em rodovias, não em cidades. Comprando o Full Self-Driving, o cliente ganha acesso ao recurso de controle de semáforo e placas de “pare”. Antes da liberação do beta para todos os clientes que comprem o FSD, era necessário que o motorista cumprisse algumas exigências: 80 pontos de segurança no sistema da Tesla e 160 km usando o Autopilot. Agora, essas exigências foram eliminadas. Clientes da marca estão relatando que tiveram acesso ao beta sem cumprir os dois pontos.
Autopilot: nem tão “auto”, nem tão seguro
A SAE (sigla em inglês para Sociedade de Engenheiros Automotivos) divide as tecnologias de direção autônoma em cinco níveis — sendo o Nível 5 a automação total de um veículo e o sonho de Musk. O Autopilot e o FSD da Tesla estão mais próximos do Nível 2 da SAE, onde ainda é necessário que o motorista monitore o veículo. Contudo, há inúmeros relatos de motoristas que dormem ao volante durante o Autopilot (via NBC) e, claro, de acidentes com o veículo. A NHTSA divulgou que dos 392 acidentes entre junho de 2021 e junho de 2022 envolvendo sistemas de auxílio de direção, 273 foram com veículos da Tesla. Na época da publicação, a Tesla reforçou a segurança do seu sistema e se defendeu comparando o número de acidentes fatais com carros não-autônomos. E por mais que os números fatais sejam pequenos (são seis mortes registradas no relatório), segurança não se trata apenas de ficar vivo. A NHTSA também abriu uma investigação sobre os problemas de “freada fantasma”, em que o Autopilot freava “do nada” e sem nenhum risco iminente. Esses incidentes indicam alguma falha no software e podem ser perigosos em situações nas quais há um veículo “colado” na traseira do Tesla — principalmente um caminhão. Entretanto, um usuário consciente do Autopilot terá tempo de reagir e se salvar. Por causa da NHTSA, a Tesla também desativou a função “rolling stop” em seus carros. Sem uma tradução direta para o português, o “rolling stop” é a atitude na qual o motorista entra em um cruzamento sem parar completamente o veículo, mantendo o carro ainda em um movimento lento, preparando para acelerar caso seja possível seguir o caminho. Essa funcionalidade estava disponível no modo “Assertivo” do Full Self-Driving, na qual a IA realiza manobras mais arriscadas — uma opção para quem tem pressa. Ferramentas de assistência de direção são importantíssimas para a segurança nas estradas. Porém, motoristas imprudentes não deveriam participar do beta. Ao liberar o acesso a pessoas com baixas pontuações de segurança da Tesla e com menos de 160 km de uso do Autopilot, os testes podem acabar trazendo mais problemas para o objetivo de direção autônoma — a de verdade, Nível 5 — na Tesla. Com informações: The Verge e TechCrunch