Vlasnik Tesla automobila podneo je žalbu zvaničnom telu za bezbednost saobraćaja SAD na auto putevima (NHTSA), nakon što je doživeo saobraćajnu nesreću sa uključenim auto-pilotom.
Nesreća se odigrala 3. novembra 2021. godine u Kaliforniji i pukom srećom nije bilo povreda, ali je zabrinjavajuće to što je vozač dao izjavu da je auto-pilotodgovoran za nesreću. Konkretno, automobil je konstantno pokušavao da se prebaci u pogrešnu traku, i nije dozvoljavao vozaču da preuzme kontrolu.
Da stvar bude gora, u pitanju je Tesla Model Y sa najvišim nivoom sistema za autonomnu vožnju (FSD) koji može da vozi bez pomoći vozača. Ili u ovom slučaju, da se slupa, uprkos nastojanju vozača da se to ne desi. Na zvaničnoj stranici pomenute agencije za bezbednost saobraćaja na auto putevima je i izjava vozača:
"Vozilo je bilo u FSD Beta režimu i dok je skretao ulevo auto je ušao u pogrešnu traku i mene je udario drugi vozač u traci pored moje.
Auto me je upozorio na pola skretanja tako da sam pokušao da okrenem volan, kako bih izbegao da uđe u pogrešnu traku, ali je auto sam preuzeo kontrolu i nastavio da ide ka pogrešnoj traci prav́ći nebezbedan manevar stavljajući sve na putu u rizičnu situaciju. Automobil je veoma oštéćen na vozačevoj strani."
Odbijanje kontrole vozača
Ono što je posebno zabrinjavajuće u ovoj izjavi je da je auto-pilot pokušao da skrene u pogrešnu traku, upozorio vozača, koji je probao da preuzme kontrolu nad automobilom, ali mu to nije pošlo za rukom. I to je prvi put da se ovako nešto desilo. Ili da je bar javno objavljeno da se ovako nešto desilo.
Poenta FSD i svih auto-pilota, odnosno sistema za autonomnu vožnju je kao kod tempomata, onog trenutka kada vozač pipne volan ili bilo koju papučicu, on preuzima punu kontrolu, a sistem se isključuje. Ovo je osmišljeno baš da bi u ovakvim situacijama vozač mogao da reaguje i spreči da se desi nesreća. Evo kako FSD sistem izgleda u praksi:
Istorija problema
Napomenućemo da je u oktobru kompanija Tesla povukla skoro 12.000 automobila zbog softverske greške koja je uzrokovala pogrešno obaveštenje o sudaru sa čeone strane ili neočekivano aktiviranje automatskog sistema kočenja.
Pored toga, nedavno je pokrenuta istraga zbog toga što je od 2018. godine bilo 11 sudara Tesla vozila sa parkiranim vozilima hitnih službi, sa 17 povređenih ljudi i jednim smrtnim slučajem.
Način na koji se kompanija Tesla ograđuje sa svoje strane kada je u pitanju autonomna vožnja je gotovo komičan. U beta 9 verziji ovog softvera piše da: "Može da uradi pogrešne stvari u najgorem mogućem trenutku, tako da uvek morate držati ruke na volanu i posebno paziti šta se dešava na putu." Izgleda da najnovija verzija softvera više ne dozvoljava ni da preuzmete kontrolu u najgorem mogućem trenutku.
Da, baš uliva poverenje.
Postanite deo SMARTLIFE zajednice na Viberu.