Wrogowie Tesli łączą siły. I pokazują, ile jest wart system FSD, czyli "autopilot" w Teslach

2 dni temu 3
Reklama 3 tysiące złotych na miesiąc.
  • Tesla Takedown (Pogrom Tesli) to ruch, o którym zaczęło być głośno na początku 2025 r. Jego organizatorzy sprzeciwiają się politycznej działalności Elona Muska i chcą z nim walczyć, niszcząc samochodowy biznes miliardera
  • The Down Project jest organizacją założoną przez amerykańskiego inżyniera programistę pracującego w przemyśle lotniczym; firma zaangażowana jest w zwalczanie źle zabezpieczonych i niedopracowanych systemów komputerowych, które mogą być niebezpieczne dla ludzi
  • Obie te organizacje przeprowadziły testy mające pokazać, jak niebezpieczny i niedopracowany jest system półautonomicznej jazdy montowany w Teslach
  • The Down Project liczy wypadki spowodowane autopilotem Tesli w tysiącach i domaga się wycofania tego oprogramowania z użycia

Żeby być uczciwym, trzeba zaznaczyć, że aktualny, najnowszy komercyjny system FSD oferowany przez Teslę ma dopisek "Supervised" (wymagający nadzoru). To oznacza z grubsza tyle, że używasz go na własną odpowiedzialność, a w każdym razie masz obowiązek być w każdej chwili gotowym do przejęcia kierownicy; masz patrzeć na drogę i musisz widzieć to, czego system nie widzi. Reklamy Tesli posuwają się jednak daleko, sugerując, że samochód radzi sobie doskonale bez człowieka; trwają testy systemu m.in. w Rzymie, na filmikach można oglądać, jak nowa Tesla Y samodzielnie radzi sobie w gęstym ruchu ulicznym.

Tyle że, po pierwsze, poziom udostępnionych klientom przez Teslę funkcjonalności jest większy niż przez jakiegokolwiek europejskiego producenta, choć i Mercedes, i BMW i inni mają takie systemy, bazujące zresztą na bardziej wyrafinowanych czujnikach;

Po drugie, wiadomo, że FSD potrafi wykonać tak nieprzewidziany i nieracjonalny manewr, że żaden człowiek nie jest w stanie na takie zaskoczenie zareagować w odpowiednim czasie.

Testy The Down Project pokazują, że ślepa wiara w perfekcyjne działanie systemów autonomicznych takich jak FSD to głupota, a wypadki nie są przypadkowe.

Tesla Y osiem razy przejechała po manekinie udającym dziecko...

...i nie wykryła zdarzenia ani razu. Test polegał na tym, że auto jadące w trybie autonomicznej jazdy zbliżało się do zaparkowanego autobusu szkolnego. W USA taki autobus jest wyposażony w wysuwane znaki "stop", które nakazują kierowcom zbliżającym się z obu kierunków zatrzymanie i przepuszczenie dzieci przekraczających jezdnię. Za każdym razem samochód ignorował znaki "stop" i za każdym razem, pod różnymi kątami, uderzał w manekina.

Po "wypadku" auto zatrzymywało się, ale system nie wyłączał się, po czy, samochód ruszał, jakby nigdy nic.

Tesla przegrywa z konkurencją na polu autonomicznej jazdy

Systemy autonomiczne rozwijane przez Teslę najprawdopodobniej zostały już wyprzedzone przez chińską konkurencję. Trudno już policzyć, ile razy przesuwano rozpoczęcie produkcji autonomicznych taksówek Tesli, które mają zapewnić marce przyszłość. W Chinach Elon Musk ma problem z testowaniem i uczeniem systemu (Chińczycy nie pomagają).

Być może jednak problem jest głębszy: teslowy FSD jest krytykowany za to, że jest systemem optycznym, opierającym swoje działanie na analizie obrazu z kamer. Inni producenci inwestują w radary oraz lidary, łącząc ze sobą różne technologie. Gdy pojawia się nagły problem z widocznością, same kamery stają się bezradne. Prawdopodobnie mają też problem z rozpoznawaniem mniejszych obiektów takich jak dzieci – nawet jeśli te są ubrane w jaskrawe stroje.

Ponad dwa tysiące wypadków, 49 ofiar śmiertelnych

The Down Project naliczył już 2093 wypadki spowodowane przez autonomiczne systemy Tesli, zginęło w nich 49 ludzi. Firma twierdzi, że Elon Musk, zamiast merytorycznej dyskusji, woli grozić pozwami i składać puste obietnice.

Obecnie Tesla prowadzi szereg testów systemu FSD (Supervised), które mają prowadzić do uzyskania dopuszczenia do użytku na drogach publicznych. Warto zwrócić uwagę, że w Europie, zanim takie rzeczy zostaną dopuszczone do sprzedaży, najpierw muszą uzyskać stosowne homologacje. W USA (i nie tylko) działa to trochę inaczej: jeśli firma uważa, że system działa, to go udostępnia i najwyżej potem zmaga się z pozwami czy działaniami agencji rządowych zajmujących się bezpieczeństwem. Elon Musk miał już do czynienia nie raz z NHTSA (amerykańska rządowa agencja zajmująca się bezpieczeństwem ruchu drogowego), musiał ograniczać dostępną funkcjonalność starszych wersji autopilota, tłumaczył się z wypadków, ale działania agencji traktuje jak rzucanie kłód pod nogi uczciwym przedsiębiorcom.

W czasie swojej krótkiej kariery w DOGE (Departament Efektywności Rządu) Elon Musk zrobił wiele, by agencje, które dotąd go ścigały, zajęły się czym innym.

Przeczytaj źródło