O FSD da Tesla é realmente infalível ou pode ser enganado?

O FSD da Tesla é realmente infalível ou pode ser enganado?

A condução 100% autónoma ainda é um assunto de carácter duvidoso e motivo de debates acesos. A mais recente polémica em volta do Full Self-Driving (FSD) da Tesla voltou a levantar questões sobre a sua fiabilidade. Recentemente, um teste levado a cabo pelo famoso YouTuber Mark Rober gerou uma grande controvérsia ao sugerir que o sistema poderia ser enganado por uma parede falsa. Em resposta, um outro utilizador da Tesla decidiu replicar o teste, trazendo resultados muito particulares.

Quando vi estes testes, lembrei-me imediatamente das corridas e das paredes falsas dos desenhos animados Looney Tunes, com as adoradas personagens Wile E. Coyote e Road Runner. Será que os testes feitos com os veículos da Tesla tiveram como inspiração este grande clássico da Warner Bros? É provável. Mas deixando a animação de lado, concentremos-nos no primeiro teste e a polémica que daí advém.

O primeiro teste e a polémica estoura

Num vídeo intitulado "Can You Fool A Self-Driving Car?", que rapidamente acumulou milhões de visualizações, Mark Rober colocou à prova diferentes sistemas de detecção. Entre eles, testou o LiDAR contra o sistema baseado em câmaras da Tesla. O que mais chamou a atenção foi a incapacidade do carro em reconhecer uma parede falsa que imitava o asfalto. Como era expectável, isso originou alguma preocupação entre os espectadores.

Porém, o teste inicial apresentou um detalhe importante. Ele não foi realizado com o FSD ativo, mas sim com o Autopilot, um sistema menos avançado. A diferença entre os dois modos de condução fez com que alguns questionassem a validade do teste e sugerissem que uma nova tentativa, utilizando o FSD, poderia trazer resultados diferentes.

O segundo teste e mais dúvidas surgem

Para tentar esclarecer as dúvidas, Kyle Paul, um outro utilizador da Tesla, decidiu replicar o teste de Mark Rober, mas desta vez utilizando o FSD. Com uma parede falsa semelhante à utilizada no vídeo original, ele colocou o seu Model Y, equipado com hardware FSD da terceira geração (HW3), à prova.

O resultado? O Tesla não conseguiu detetar a parede falsa até estar a escassos centímetros dela. Isso levantou a hipótese de que a identificação foi feita apenas pelos sensores de estacionamento ultrassónicos, e não pelo sistema de condução autónoma propriamente dito. Esta falha levou a mais questões sobre as limitações do FSD e o seu funcionamento em situações invulgares.

Cybertruck apresenta resultados diferentes

De forma a aprofundar o experimento, Kyle Paul testou uma Cybertruck, que vem equipada com a mais recente versão do hardware FSD, conhecida como HW4. Neste caso, os resultados foram muito diferentes. A Cybertruck conseguiu detetar a parede falsa e travar antes de colidir.

Foto de Varun Palaniappan: Unsplash

A diferença entre o desempenho do Model Y e da Cybertruck mostra que a evolução do hardware desempenha um papel fundamental na melhoria da perceção do ambiente pelo FSD. O HW4 parece corrigir algumas das limitações observadas em versões anteriores, tornando os veículos mais eficazes na identificação de objetos fora do normal.

Conclusão

A polémica gerada por estes testes faz aumentar a discussão sobre a qualidade do FSD da Tesla. Embora a tecnologia esteja em constante evolução, os testes demonstram que ainda existem cenários e variantes em que o sistema pode falhar. A diferença de resultados entre o Model Y e a Cybertruck também indica que a melhoria do hardware é um fator essencial para uma condução verdadeiramente autónoma e segura.

Seja como for, a questão que se levanta é: até que ponto podemos confiar no FSD para lidar com situações inesperadas? Polémicas e debates relacionado com a fiabilidade da condução autónoma irão continuar, mas o facto é que a evolução desta tecnologia será essencial para definir o futuro da mobilidade autónoma.