V situaci, kdy má autonomní vozidlo rozhodnout koho usmrtí, když náhle vznikne situace, která dle propočtů automobilu bude znamenat smrt řidiče, nebo jiného účastníka provozu? Vím, že automobil nesmí zohledňovat (diskriminovat) podle rasy, věku, nebo pohlaví, ale zde bude na 100% jasné, že jakékoliv řešení situace bude znamenat smrt buďto řidiče, nebo druhého účastníka. Koho v takovém případě odsoudí k smrti?
Zajímavá 3Pro koho je otázka zajímavá? anonym, JájsemRaibek, zjentek před 1960 dny |
Sledovat
Nahlásit
|
Špatná otázka. Auto nikoho neupřednostní a nic nepředpovídá. Nerozhoduje se. Jedná přísně podle algoritmů. Už vůbec se nerozhoduje, koho usmrtí. Auto ani neřeší situace, natož, aby někoho odsuzovalo. Auto pouze vypočítává. Velmi sofistikovaně, ale jen vypočítává.
1Kdo udělil odpovědi palec? Martin Höck
před 1960 dny
|
0 Nominace Nahlásit |
Pokud je mi znamo, tak soucasna autonomni vozidla “neresi” moralni dilemata. V tuto chvili se jen snazi zabranit stretu a v pripade ze to nejde alespon zmirnit nasledky.
Zminovana hra skutecne neslouzila k nastaveni vozidel, ale pouze k pruzkumu mezi lidmi. V tuto chvili toto neni jasne legislativne nastavene snad nikde na svete. Pokud autonomni vozidlo naboura, je to stejne, jako by ho naboural ridic v nem jedouci – posuzuje se jeho (auta) mira zavineni.
1Kdo udělil odpovědi palec? Martin Höck
před 1960 dny
|
0 Nominace Nahlásit |
Toto je samozřejmě velmi zajímavá otázka a vůbec celé téma v rámci technologie autonomního řízení. Existuje obrovské množství scénářů, kdy chybu neudělá auto samo ale chodci, ostatní řidiči, kteří se z ničeho nic zachovají nepředvídatelně a najednou se autonomní vůz ocitá v situaci kdy se skutečně musí rozhodovat zda a jak do řízení zasáhnout aby to vedlo k záchraně vlastní posádky vozu, nebo záchraně chodců kteří najednou vběhli na přechod. Autopilot vozu má na každé rozhodnutí téměř celou věčnost. I milisekundy jsou pro autopilota věčnost a může v nich rozhodnout o zásahu do řízení který zahájí už v další milisekundě, takže můžeme autopilota klidně v rámci jistého zjednodušení chápat jako řidiče, který má schopnost kdykoliv zastavit čas a libovolně dlouho nad situací přemýšlet a rozmýšlet. To je komfort který lidský řidič pochopitelně nemá, takže i zcela nové problémy k řešení.
Má autopilot v situaci kdy nemůže ze situace vybruslit žádným způsobem aniž by se někdo zranil, rozhodovat o tom kdo prvotně nehodu zavinil a upřednostnit záchranu těch co se v situaci ocitli nevinně ? taková analíza dopravní situace je ale velmi náročný oříšek že ? Mají se vývojáři vůbec zabývat tím aby autopilot takto uvažoval nebo si má prostě jen hodit kostkou nebo jen v panice pustit volant jak by to udělal liský řidič a zírat do blba ? Težko říct …
Ukažme si typickou situaci která k této otázce vede. Do ulice kde najednou vběhnou dvě děti a peláší přes silnici, stane se to tak rychle že autopilot ví, že už nestihne přibrzdit tak aby ji nesrazil. Vypočítá si ale že může ostře zahnout vpravo kde ale bohužel seniora, který se prochází po chodníku nebo zahnout ostře volevo kde dojde k čelnímu střetu s dodávkou a patrně zahyne samotná posádka autonomního vozu ? Je to velmi nepříjemné rozhodování že ? Lidský pilot by na něj neměl vůbec čas a tak by to neřešil, prostě by náhodně udělal jedno, druhé nebo třetí a nepřemýšlel nad tím. Autopilot ale jak jsme si řekli má na vše moře času a může podumat, může vytvořit nějká hodnotící kritéria, je život dvou dětí cennější než život seniora ? Sakra ošemetná otázka, dva je více než jedna to je jisté, ALE lze to vůbec poměřovat ? Měl by autopilot do rozhodování zahrnout i skutečnost že senior neporušil dopravní předpisy ale děti ano ? Měl by primárně hájit život své posádky ať už je viníkem kdokoliv ? Tohle vůbec není jednoduchý problém a bude jistě v příštích dekádách rozvoje autonomního řízení nějakou dobu na stole.
Legislativa nic takového nenařizuje, takže se podle mne vývojáři autopilotů tím vůbec zavýbat z počátku nebudou a nechají to na náhodě, nebo prostě zbrkle předají řízení do rukou lidského pilota a ten se v krátkém čase nestihne rozhodnout vůbec nijak (ale už to bude na něm) …
více viz MORAL MACHINE, například tento článek https://www.zive.cz/clanky/moral-machine-uz-vime-zdali-je-lepsi-zabit-psy-sebe-nebo-matky-na-prechodu/sc-3-a-195728/default.aspx nebo https://www.nature.com/articles/d41586-018-07135-0
Každopádně jisté je, že tyto morální volby nejsou univerzální, mohlo by se v konkrétním případě zdát určité rozhodnutí správnější než jiné ale vsorec kterým jste k němu dospěli nemusí mít žádnou váhu či platnost v jiné situaci.
Upravil/a: anonym
1Kdo udělil odpovědi palec? Martin Höck
před 1958 dny
|
0 Nominace Nahlásit |
Automobilka to udělala chytře..
Dali statisicum lidí hrát takovou hru, která byla na internetu dostupna
asi 60 dnů..
Lidé se v ní museli rozhodovat o podobných situacích..
Například nebylo možné auto zabrzdit před přechodem…
A na ně se nacházeli:
Oni se museli do 3 vteřin rozhodnout, do koho z nich vozidlo narazí.
Na základě podobných průzkumů byly nastaveny i vozidla..
0
před 1960 dny
|
0 Nominace Nahlásit |
Mp2 nemáš pravdu… ten průzkum nedělala žádná automobilka ale MIT. Co je ale důležitější, výsledky byly tak nejednoznačné, že podle nich nemohli nastavit vůbec nic … asiati rozhodovali jinak než evropané, velmi se to lišilo výchovou v daném regionu a zvyklostmi. Někde by dokonce preferovali zabití člověka před dvěma psy, což se nám může zdát neuvěřitelné ale je to tak. Morální pravidla která měla vzejít z tohoto průzkumu byla nejednoznačná a prakticky k ničemu. Pro každý region by se musela nastavovat jinak a co kdybyste si pak koupili čínské auto ? Asi by vás překvapilo kdybyy se v takové situaci rozhodlo zabít 5 lidí místo jednoho prostě proto že ten jeden byl vysoce postavený úředník 🙂
Edison – To si nemyslím. Potom by v algoritmech nemusel mít zaneseno, že v kritických situacích nesmí diskriminovat podle rasy, věku a pohlaví. Člověk se v kritické situaci rozhodne tak, že strhne řízení bez přemýšlení. Dám „jednodušší“ situaci. Do cesty mu vběhnou dvě děti. Úhybný manévr vlevo znamená smrt dítěte vlevo a naopak. Kam auto zatočí?
Moment… mícháš hrušky s jablky. Problém byl v tom, že systém neměl preference ras. Ani teď tam není, že „nesmí dyskrimynovat“. Problém byl v samotném rozpoznávání lidí a to ten, že to, že objekt je člověk poznal pouze na „bílém“. A ne kvůli rase, ale prost proto, že vypadá jinak a systém byl „jen chybně nastaven“. Prostě se jen musely přidat další parametry, které rozšířily okruh objektů určených předem jako „lidi“. To je jako bys nastavil že „tohle je auto“. Jenže ono auto může holt prostě vypadat i jinak. Tak se to muselo doprogramovat. Tedy to pravidlo o diskriminaci není v programu auta, ale v zásadách pro programování rozpoznávacích algoritmů a to nedělá auto, ale programátoři. Prostě je určeno, že programátor na „to“ nesmí zapomínat.