A Tesla, gigante do setor automotivo, está no centro de uma nova polêmica envolvendo seu sistema de direção autônoma, o Full Self-Driving (FSD). Demonstrações recentes, conduzidas por grupos como The Dawn Project, Tesla Takedown e ResistAustin, revelaram falhas preocupantes no software. Em um teste realizado em Austin, Texas, um Tesla Model Y equipado com o FSD não reconheceu um ônibus escolar parado com as luzes de alerta piscando, atropelando manequins infantis colocados na via.
O teste replicou o erro diversas vezes, levantando sérias questões sobre a capacidade do sistema de identificar e reagir adequadamente a situações de risco envolvendo crianças e veículos escolares. É importante ressaltar que o FSD da Tesla é classificado como um sistema de direção autônoma “supervisionado”, o que significa que exige a atenção constante do motorista e a capacidade de intervir em caso de falhas. A própria Tesla adverte que a falha em seguir essas instruções pode resultar em danos, ferimentos graves ou morte.
Apesar das advertências, o incidente reacende o debate sobre a segurança e a confiabilidade dos sistemas de direção autônoma, especialmente em ambientes complexos e imprevisíveis como as vias públicas. O lançamento do Cybercab, o serviço de robotáxi da Tesla, está previsto para breve, o que torna ainda mais urgente a necessidade de garantir a segurança e a precisão do software. Elon Musk, CEO da Tesla, afirmou que a empresa está sendo “super paranoica com a segurança”, mas os testes recentes demonstram que ainda há muito trabalho a ser feito para garantir a segurança de todos os usuários das vias.
Origem: Link