Samochody Tesli nie wykrywają dzieci. Są śmiertelnie niebezpieczne

Niedawno profesjonalny kierowca ocenił zdolności autonomicznego prowadzenia samochodów Tesli. Firma Elona Muska ma ogromny problem, do czego jawnie się przyznaje. Auta co chwil uderzały w manekiny wielkości dzieci. Czy mimo tego, mogą bezpiecznie jeździć po ulicach?

System FSD potrzebuje jeszcze czasu, by być w pełni bezpieczny.
System FSD potrzebuje jeszcze czasu, by być w pełni bezpieczny.
Źródło zdjęć: © Pexels
Marcin Watemborski

10.08.2022 09:50

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Firma Dawn Project przeprowadziła testy systemu w pełni automatycznego prowadzenia samochodów (Full Self-Driving, FSD) i stwierdziła, że to nie nadaje się do użycia. Wygląda na to, że samochody Tesli potencjalnie stanowią śmiertelne zagrożenie dla najmłodszych. Seria testów ujawniła, że pojazdy powtarzalnie uderzały w małych pieszych.

Trzeba podkreślić, że oprogramowanie przechodzi dopiero testy beta, więc jeszcze daleko mu do wprowadzenia na rynek – zważywszy na to, że najważniejsze jest bezpieczeństwo. Problem polegał na tym, że każdorazowo, gdy na drodze samochodu pojawił się manekin wielkości dziecka, ten w niego uderzał i to z niemałą prędkością, bo ok. 40 km/h.

Profesjonalny kierowca, który nadzorował testy, od razu zwrócił uwagę na ogromny problem, z którym musi zmierzyć się Tesla. Założyciel Dawn Project Dan O’Dowd stwierdził, chociaż ich oprogramowanie jest niesamowite, samochody Tesli stanowią śmiertelne zagrożenie dla ludzi. Mimo tego, że ponad 100 tys. pojazdów wykorzystuje system FSD na drogach publicznych, trzeba go znacznie ulepszyć, bo prędzej czy później dojdzie do tragedii z udziałem dzieci.

O’Dowd zwraca uwagę na to, że samochody Tesli wykrywają przejścia dla pieszych i w kwestii bezpieczeństwa ludzi na nich nie ma problemu. Ten zaczyna się poza pasami. Dzieci bawiące się na osiedlu w okolicy dróg mogą zostać niezauważone przez samochód i zginać pod jego kołami, a auto dostrzeże zdarzenie dopiero po fakcie. Dodajmy do tego chaotyczne i nagłe ruchy dzieci – przecież nawet zawodowi kierowcy zachowują wzmożoną ostrożność, gdy w okolicy bawią się maluchy. System detekcji FSD powinien to również uwzględniać.

W 2021 roku doszło do wypadku, w którym 2 osoby zginęły przez samokierujący samochód Tesli. Jednak wówczas samochód był ustawiony w trybie autopilota, a nie FSD. Nowe oprogramowanie jest bardziej zaawansowane, lecz do doskonałości mu daleko. Zgodnie z informacjami, które przekazał Elon Musk, FSD ma być gotowe do końca roku i będzie mógł z niego korzystać każdy kierowca, który wyrazi taką chęć.

W przeciągu ostatnich 6 lat, w USA doszło do 30 wypadków samochodowych z udziałem pojazdów marki Tesla z autopilotem, z czego w 19 z nich zginęli ludzie. W 11 przypadkach samochodu Tesli uderzyły w pojazdy uprzywilejowane. Biorąc pod uwagę raporty drogowe o wypadkach, w których biorą udział auta z systemami asystowania kierowcy, produkty Tesli pojawiają się najczęściej.

Marcin Watemborski, dziennikarz WP Tech

Komentarze (4)