Imagem meramente ilustrativa
A empresa de automóveis elétricos Tesla tem enfrentado sérias críticas nos últimos anos por causa do seu sistema Autopilot, que é considerado um dos mais avançados no mercado. No entanto, apesar das suas promessas e vantagens, o sistema não está imune a falhas e acidentes fatais.
Um recente caso envolvendo uma caminhonete em 2019 chamou atenção para as possíveis limitações do Autopilot. De acordo com relatos, um Tesla Model 3 equipado com o sistema de assistência ao motorista bateu em uma outra veículo, matando Jovani Maldonado, que tinha apenas 15 anos na época da tragédia. O caso é mais um exemplo das falhas do Autopilot no Brasil e outros países.
A Tesla concordou em encerrar o processo por homicídio culposo relacionado ao acidente fatais de Jovani Maldonado, que ocorreu quando ele estava sentado na frente da caminhonete. O sistema não reduziu a velocidade antes do impacto e falhou no controle da frenagem automática e direção.
Além disso, o caso é apenas mais um dos muitos processos envolvendo acidentes fatais causados por possíveis falhas em seu sistema Autopilot. Outro exemplo de como a empresa foi condenada a pagar US 243 milhões (cerca de R$1,3 bilhão) em danos compensatórios e punitivos num caso envolvendo um Model S equipado com o piloto automático.
O júri considerou que a Tesla era parcialmente responsável pelo acidente e morte. A empresa foi condenada por não ter tomado as medidas necessárias para garantir a segurança dos seus usuários, como melhorar os sistemas de frenagem e direção do seu veículo.
A notícia trouxe à tona o fato da falta de regulamentação no Brasil em relação aos carros autônomos. A fiscalização é muito fraca, deixando as empresas de automóveis livres para testarem seus produtos nas estradas sem a necessidade de aprovação das autoridades.
O caso também ressaltou que o Autopilot não pode ser considerado como um sistema de condução autônomo e seguro. O sistema falhou no controle da velocidade, direção e frenagem do veículo em momentos críticos, levando a consequências fatais para os usuários.
A empresa está sendo processada por acidentes fatais causados por possíveis falhas na sua tecnologia de condução autônoma. O caso é um exemplo da falta de confiança dos consumidores nos carros equipados com sistemas como o Autopilot.