ZBOG ČEGA NE TREBA DA KUPITE TESLA AUTOMOBIL: Opasno je kada vozite, a nemate kontrolu | Smartlife RS

Ukucajte željeni termin u pretragu i pritisnite ENTER

ZBOG ČEGA NE TREBA DA KUPITE TESLA AUTOMOBIL: Opasno je kada vozite, a nemate kontrolu

Vlasnik Tesla automobila podneo je žalbu zvaničnom telu za bezbednost saobraćaja SAD na auto putevima (NHTSA), nakon što je doživeo saobraćajnu nesreću sa uključenim auto-pilotom.

Nesreća se odigrala 3. novembra 2021. godine u Kaliforniji i pukom srećom nije bilo povreda, ali je zabrinjavajuće to što je vozač dao izjavu da je auto-pilotodgovoran za nesreću. Konkretno, automobil je konstantno pokušavao da se prebaci u pogrešnu traku, i nije dozvoljavao vozaču da preuzme kontrolu.

Možda će vas zanimati

Da stvar bude gora, u pitanju je Tesla Model Y sa najvišim nivoom sistema za autonomnu vožnju (FSD) koji može da vozi bez pomoći vozača. Ili u ovom slučaju, da se slupa, uprkos nastojanju vozača da se to ne desi. Na zvaničnoj stranici pomenute agencije za bezbednost saobraćaja na auto putevima je i izjava vozača:

"Vozilo je bilo u FSD Beta režimu i dok je skretao ulevo auto je ušao u pogrešnu traku i mene je udario drugi vozač u traci pored moje.

Auto me je upozorio na pola skretanja tako da sam pokušao da okrenem volan, kako bih izbegao da uđe u pogrešnu traku, ali je auto sam preuzeo kontrolu i nastavio da ide ka pogrešnoj traci prav́ći nebezbedan manevar stavljajući sve na putu u rizičnu situaciju. Automobil je veoma oštéćen na vozačevoj strani."

Odbijanje kontrole vozača

Ono što je posebno zabrinjavajuće u ovoj izjavi je da je auto-pilot pokušao da skrene u pogrešnu traku, upozorio vozača, koji je probao da preuzme kontrolu nad automobilom, ali mu to nije pošlo za rukom. I to je prvi put da se ovako nešto desilo. Ili da je bar javno objavljeno da se ovako nešto desilo.

Možda će vas zanimati

Poenta FSD i svih auto-pilota, odnosno sistema za autonomnu vožnju je kao kod tempomata, onog trenutka kada vozač pipne volan ili bilo koju papučicu, on preuzima punu kontrolu, a sistem se isključuje. Ovo je osmišljeno baš da bi u ovakvim situacijama vozač mogao da reaguje i spreči da se desi nesreća. Evo kako FSD sistem izgleda u praksi:

Tesla FSD sistem
Izvor: YouTube / Tesla

Istorija problema

Napomenućemo da je u oktobru kompanija Tesla povukla skoro 12.000 automobila zbog softverske greške koja je uzrokovala pogrešno obaveštenje o sudaru sa čeone strane ili neočekivano aktiviranje automatskog sistema kočenja.

Pored toga, nedavno je pokrenuta istraga zbog toga što je od 2018. godine bilo 11 sudara Tesla vozila sa parkiranim vozilima hitnih službi, sa 17 povređenih ljudi i jednim smrtnim slučajem.

Način na koji se kompanija Tesla ograđuje sa svoje strane kada je u pitanju autonomna vožnja je gotovo komičan. U beta 9 verziji ovog softvera piše da: "Može da uradi pogrešne stvari u najgorem mogućem trenutku, tako da uvek morate držati ruke na volanu i posebno paziti šta se dešava na putu." Izgleda da najnovija verzija softvera više ne dozvoljava ni da preuzmete kontrolu u najgorem mogućem trenutku.

Da, baš uliva poverenje.

Postanite deo SMARTLIFE zajednice na Viberu.

Možda će vas zanimati

Najnovije

Uređaji

Testovi

…

Komentari 4

Vaš komentar je prosleđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspelo.

Nevalidna CAPTCHA

Beogradska seljačina

Nema tog kompjutera kome bih verovao dok vrti volan.

bole

ljudi obicno lazu jer su popravke preskupe ali tesla ima "crnu kutiju" pa moze da se utvrdi tacno sta se desavalo...

neko iz mase

I dalje autopiloti prave manje nesreća po pređenom kilometru nego ljudi.