Budování Morálního Stroje: Kdo Bude Odpovědný Za Etiku Aut S Vlastním Pohonem? - Alternativní Pohled

Obsah:

Budování Morálního Stroje: Kdo Bude Odpovědný Za Etiku Aut S Vlastním Pohonem? - Alternativní Pohled
Budování Morálního Stroje: Kdo Bude Odpovědný Za Etiku Aut S Vlastním Pohonem? - Alternativní Pohled

Video: Budování Morálního Stroje: Kdo Bude Odpovědný Za Etiku Aut S Vlastním Pohonem? - Alternativní Pohled

Video: Budování Morálního Stroje: Kdo Bude Odpovědný Za Etiku Aut S Vlastním Pohonem? - Alternativní Pohled
Video: Budování etické firemní kultury začíná už náborem. 2024, Duben
Anonim

Jdeš po dálnici, když se muž dostane na rušnou silnici. Auta se pohybují kolem vás a máte zlomek sekundy, abyste se rozhodli: pokuste se vyhnout osobě a vytvořit riziko nehody? Pokračujte v jízdě v naději, že bude mít čas? Rozbít? Jak hodnotíte pravděpodobnost připoutání dítěte na zadním sedadle? V mnoha ohledech je to klasické „morální dilema“, problém s vozíkem. Má milion různých možností, které vám umožní identifikovat lidské předsudky, ale podstata je stejná.

Jste v situaci, kdy je v sázce život a smrt, není jednoduchá volba a vaše rozhodnutí ve skutečnosti určí, kdo žije a kdo umírá.

Dilema vozíku a umělá inteligence

Nový příspěvek MIT, publikovaný minulý týden v časopise Nature, se snaží přijít s pracovním řešením problému s vozíkem náborem milionů dobrovolníků. Experiment začal v roce 2014 a byl úspěšný, obdržel přes 40 milionů odpovědí od 233 zemí, což z něj učinilo jednu z největších morálních studií, jaké kdy byly provedeny.

Člověk může taková rozhodnutí činit nevědomě. Je těžké zvážit všechny etické systémy a morální předpoklady, když vaše auto závodí po silnici. Ale v našem světě jsou rozhodnutí stále častěji prováděna algoritmy a počítače mohou snadno reagovat rychleji než my.

Hypotetické situace u aut s vlastním pohonem nejsou jedinými morálními rozhodnutími, která musí algoritmy dělat. Lékařské algoritmy vyberou, kdo bude léčen s omezenými zdroji. Automatizované bezpilotní letouny si vyberou, kolik „kolaterálních škod“je přijatelných v jednotlivých vojenských zásazích.

Propagační video:

Ne všechny morální principy jsou si rovny

„Řešení“problému s vozíkem jsou tak různorodá jako samotné problémy. Jak budou stroje dělat morální rozhodnutí, když základy morálky a etiky nebudou všeobecně přijímány a možná nebudou mít řešení? Kdo může určit, zda se algoritmus chová správně nebo špatně?

Přístup crowdsourcingu, který přijali vědci společnosti Moral Machine, je docela pragmatický. V konečném důsledku, aby veřejnost mohla přijímat autosedačky, musí přijmout morální základ za svými rozhodnutími. Nebude dobré, pokud etici nebo právníci přijdou s řešením, které je pro běžné řidiče nepřijatelné nebo nepřijatelné.

Výsledky vedou k podivnému závěru, že morální priority (a tedy i algoritmická rozhodnutí, která mohou lidé dělat) závisí na tom, kde na světě jste.

V první řadě vědci uznávají, že je nemožné znát frekvenci nebo povahu těchto situací v reálném životě. Lidé, kteří se účastnili nehody velmi často, nemohou říci, co se přesně stalo, a rozsah možných situací vylučuje jednoduchou klasifikaci. Proto, aby se problém mohl vypátrat, je třeba jej rozdělit na zjednodušené scénáře a hledat univerzální morální pravidla a zásady.

Když provedete průzkum, zobrazí se vám třináct otázek, které vyžadují jednoduché ano nebo ne, a snaží se zúžit odpovědi na devět faktorů.

Mělo by se auto proměnit v jiný pruh nebo se dál pohybovat? Měli byste zachraňovat mladé lidi, ne staré? Ženy nebo muži? Zvířata nebo lidé? Pokud se pokusíte zachránit co nejvíce životů, nebo je jedno dítě „hodné“dvou starších lidí? Ušetřete cestující v autě, ne chodce? Ti, kteří tato pravidla nedodržují, nebo ti, kteří tato pravidla nedodržují? Měli byste zachránit lidi, kteří jsou fyzicky silnější? A co lidé s vyšším sociálním statusem, jako jsou lékaři nebo podnikatelé?

V tomto krutém hypotetickém světě musí někdo zemřít a na každou z těchto otázek odpovíte - s různým stupněm nadšení. Tato rozhodnutí však také odhalují hluboce zakořeněné kulturní normy a zkreslení.

Zpracování obrovského souboru údajů zkoumaného vědci přináší univerzální pravidla i zvědavé výjimky. Tři nejvýznamnější faktory, zprůměrované napříč celou populací, byly to, že každý raději zachránil více životů než méně, lidé spíše než zvířata a mladí spíše než staří.

Regionální rozdíly

S těmito body můžete souhlasit, ale čím hlouběji si o nich myslíte, tím více budou morální závěry znepokojující. Více respondentů se rozhodlo zachránit zločince před kočkou, ale obecně raději zachránili psa před zločincem. Průměrný svět je vyšší než vyšší bezdomovec, ale lidé bez domova byli méně zachráněni než tlustí lidé.

A tato pravidla nebyla univerzální: respondenti z Francie, Spojeného království a Spojených států dávali přednost mladým, zatímco respondenti z Číny a Tchaj-wanu byli ochotnější zachránit starší lidi. Respondenti z Japonska raději zachránili chodce před cestujícími, zatímco v Číně preferovali cestující před chodci.

Vědci zjistili, že by mohli seskupit odpovědi podle zemí do tří kategorií: „Západ“, zejména Severní Amerika a Evropa, kde je morálka založena převážně na křesťanské doktríně; „Východ“- Japonsko, Tchaj-wan, Střední východ, kde převládají konfucianismus a islám; „Jižní“země, včetně Střední a Jižní Ameriky, spolu se silným francouzským kulturním vlivem. V jižní části je silnější preference ženské oběti než kdekoli jinde. Ve východním segmentu je větší tendence k záchraně mladých lidí.

Filtrování podle různých atributů respondentů poskytuje nekonečné zajímavé možnosti. „Velmi náboženští“respondenti pravděpodobně nebudou chtít zvíře zachránit, ale náboženští i nevěřící respondenti vyjadřují přibližně stejné preference pro záchranu lidí s vysokým společenským statusem (i když lze říci, že je to v rozporu s některými náboženskými naukami). Muži a ženy raději šetří ženy, ale muži jsou méně ochotní to dělat.

Nezodpovězené otázky

Nikdo netvrdí, že tento výzkum nějak „vyřeší“všechny tyto vážné morální problémy. Autoři studie poznamenávají, že crowdsourcing online dat nezahrnuje zaujatost. Ale i při velké velikosti vzorku byl počet otázek omezený. Co když se rizika mění v závislosti na vašem rozhodnutí? Co když algoritmus dokáže spočítat, že jste měli pouze 50% šanci zabít chodce, vzhledem k rychlosti, jakou jste se pohybovali?

Edmond Awad, jeden z autorů studie, vyjádřil obezřetnost ohledně přílišného interpretace výsledků. Diskuse by podle jeho názoru měla vyústit v analýzu rizik - kdo je více či méně ohrožen - namísto rozhodování o tom, kdo zemře a kdo ne.

Nejdůležitějším výsledkem studie však byla diskuse, která se rozšířila na půdu. Vzhledem k tomu, že algoritmy začínají dělat stále důležitější rozhodnutí ovlivňující životy lidí, je nezbytné, abychom neustále diskutovali o etice umělé inteligence. Navrhování „umělého svědomí“musí zahrnovat názor všech. Ačkoli odpovědi nemusí být vždy snadné najít, je nejlepší se pokusit vytvořit morální rámec pro algoritmy tím, že neumožní algoritmům utvářet svět samy bez lidské kontroly.