Nehoda Tesly připomíná, proč asistenční systémy moderních aut víc škodí než pomáhají

Na papíře vypadají jako cesta k dalšímu zvýšení bezpečnosti aut, realita ale ukazuje, že jejich rozmach vede k pravému opaku. Tato nehoda je jen dalším připomenutím, proč tomu tak je.
  1. Autoforum.cz
  2. Rubriky a sekce
  3. Představení

Nehoda Tesly připomíná, proč asistenční systémy moderních aut víc škodí než pomáhají

13.11.2020 | Petr Prokopec

Nehoda Tesly připomíná, proč asistenční systémy moderních aut víc škodí než pomáhají

/

Foto: Euro NCAP

Na papíře vypadají jako cesta k dalšímu zvýšení bezpečnosti aut, realita ale ukazuje, že jejich rozmach vede k pravému opaku. Tato nehoda je jen dalším připomenutím, proč tomu tak je.

Představte si, že sedíte v limuzíně na zadních sedadlech, přičemž řízení obstarává najatý šofér. Ten až doposud neměl s kočírováním vozu problém, nicméně náhle při spatření situace, se kterou si neví rady, přeleze dozadu za vámi a řekne, že dál si musíte řídit sami. Takového člověka byste asi na minutu propustili, tedy pokud byste přežili nehodu, kterou by tímto jednáním způsobem. Přesto se dnes najde dost těch, kteří namísto propouštění takového „řidiče” dokola omlouvají nebo dokonce chválí.

Výše zmíněné totiž naprosto přesně vystihuje podstatu systémů, jako je Autopilot Tesly. Nejde tu jen o něj, třebaže právě přístup Tesly k jeho fungování a vůbec marketingovému zacházení s ním jej činí nejviditelnějším hříšníkem. Lidé jezdící Teslami ve svých vozech de facto zaměstnávají přesně takového šoféra, který se na první pohled tváří, jako že auto umí řídit. Ovšem poté stačí komplikovanější situace a rázem tu máme nejistého pilota, který se raději vzdává řízení v momentě, kdy se to nejméně hodí.

Jednu z praktických, třebaže zdaleka ne dokonalých ukázek takové situace skýtá přiložené video zaznamenané přímo jednou z Tesel. V té majitel havaroval na silnici č. 24 v kalifornském Lafayette a k datům z vozu se dostal uživatel Twitteru s přezdívkou GreenTheOnly. Díky tomu si můžeme prohlédnout samotnou kolizi, stejně jako telemetrická data naznačující, co ji předcházelo. A právě tato dokumentace připomíná, že podobné asistenční systémy v obecné rovině nejsou prospěšné, zvláště pak ty se zavádějícím názvem.

Z oněch dat vychází, že vůz jel s použitím Autopilotu v rychlostech daleko za hranicí legálních limitů. To samo o sobě je pozoruhodné, systém byl ale zhruba 40 sekund před nárazem deaktivován, když systém FCW varující před možnou srážkou s vpředu jedoucím vozem. Stejně tak pak vůz varoval řidiče před kolizí 2 sekundy před tím, než Tesla zezadu narazila do Hondy Civic, kterou vzápětí poslala do vzduchu. Kalifornský elektromobil totiž ani v jednom případě nezačal samovolně brzdit.

V důsledku toho Tesla do Hondy narazila v opravdu vysokém tempu, rozdíl v rychlosti obou vozů totiž činil zhruba 101,4 km/h. Proč nezareagoval řidič, nevíme - možná spal, možná byl opilý, možná až příliš věřil systému, to nevíme. I kvůli tomu je odpovědnost za nehodu na něm, vyvinit z ní zcela auto resp. jeho výrobce ale nelze.

Jednak je třeba se ptát, proč nedošlo k aplikaci autonomních brzd, situace na silnici byla přehledná. Stejně tak je otázkou, proč se systém náhle rozhodl předat kontrolu řidiči, když dříve vůz bez potíží ovládal. Několikaproudá dálnice byla poloprázdná, systémy jasně identifikovaly jízdní pruhy i okolní vozy a moc dobře „viděly” rozdíl v rychlostech - z těchto dat jej nakonec známe i my. Znovu je tedy třeba říci, že nešlo ani náhodou o nepřehlednou situaci a umělá inteligence tak snadno mohla zvládnout přejetí do jiného pruhu. Však se Tesla soustavně chlubí tím, jak je blízko plné autonomii. Nic z toho se ale zkrátka nestalo, auto prostě vyplo Autopilot, naznačilo řidiči dvakrát problém a jinak nedělalo nic.

Právě tohle jsou situace, ve kterých podobné systémy dělají více škody než užitku. Řidiče svým fungováním ukolébají v domněnce, že zvládnou téměř vše a pak najednou udělají něco v momentě, kdy se nic neděje, nebo naopak neudělají nic ve chvíli, kdy se něco vážného děje. Obojí je stejně problematické a je v podstatě nemožné při použití podobných semi-autonomních řešení požadovat po řidiči, aby byl neustále připraven jednat. Takto lidský mozek nefunguje a fungovat nebude.

Že výsledná bilance je negativní, není náš výmysl. Potvrdila to naposledy studie z přelomu roku, dřívější analýzy nehod NHTSA či ještě před tím výzkum akademiků. Řešení asistující řidiči mohou být teoreticky prospěšná, ale jen pokud je s nimi zacházeno správně. Většina lidí ovšem na podobné systémy hřeší a místo doplňku pro vlastní řízení je považují za náhradu a to bezpečnější jízdu neznamená. Zbytečné nehody jsou nevyhnutelným důsledkem.

Znovu tedy opakujeme, že tyto potíže nejsou spojené pouze s Teslou, nýbrž s veškerými systémy, které zůstávají na půli cesty. A je smutné, že navzdory výše zmíněným objektivním závěrům regulátoři stále více tlačí na jejich rozšíření. My se můžeme jen přidat k někdejší kritice Richarda Hammonda, který v podstatě řekl to samé, co už dříve zaznělo od nás - že auto má řídit buď člověk, nebo má vůz řízení zvládat skutečně sám. Cokoli mezitím vede jen k tomu, že jeden „pilot” spoléhá na druhého, nakonec ale neřídí nikdo. A k čemu to pak vede, ukazuje i video níže.


Nehoda Tesly připomíná, proč asistenční systémy moderních aut víc škodí než pomáhají - 1 - Euro NCAP 2020 Tesla Model 3 Autopilot 01Nehoda Tesly připomíná, proč asistenční systémy moderních aut víc škodí než pomáhají - 2 - Euro NCAP 2020 Tesla Model 3 Autopilot test 01Nehoda Tesly připomíná, proč asistenční systémy moderních aut víc škodí než pomáhají - 3 - Euro NCAP 2020 Tesla Model 3 Autopilot test 04
Semi-autonomní systémy jako Autopilot podle řady studií nehody více způsobují, nežli naopak, protože odpovědnost za řízení nezůstává striktně v rukou nikoho. Ukázky následků se množí, kritiky ze strany institucí jako Euro NCAP přibývá, zdravý rozum ale dál prohrává. Ilustrační foto: Euro NCAP

Zdroj: Jalopnik

Petr Prokopec

Živá témata na fóru

zobrazit vše

Autobazar

zobrazit vše