Morální Stroj: Inženýři Obdařili Umělou Inteligenci Morálkou A Etikou - Alternativní Pohled

Obsah:

Morální Stroj: Inženýři Obdařili Umělou Inteligenci Morálkou A Etikou - Alternativní Pohled
Morální Stroj: Inženýři Obdařili Umělou Inteligenci Morálkou A Etikou - Alternativní Pohled

Video: Morální Stroj: Inženýři Obdařili Umělou Inteligenci Morálkou A Etikou - Alternativní Pohled

Video: Morální Stroj: Inženýři Obdařili Umělou Inteligenci Morálkou A Etikou - Alternativní Pohled
Video: ETICKÉ A MORÁLNÍ HODNOTY - Potvrzení 2024, Smět
Anonim

Čím silnější AI vstupuje do našeho každodenního života, tím častěji musí čelit složitým morálním a etickým dilematům, které pro živého člověka někdy není tak snadné vyřešit. Vědci z MIT se pokusili tento problém vyřešit a vybavili stroj schopností myslet na morálku na základě názoru většiny žijících lidí.

Někteří odborníci se domnívají, že nejlepším způsobem, jak trénovat umělou inteligenci, aby zvládala morálně obtížné situace, je použití „davu“. Jiní tvrdí, že tento přístup nebude bez předsudků a různé algoritmy mohou na základě stejné datové sady dojít k různým závěrům. Jak mohou být stroje v takové situaci, která bude při práci se skutečnými lidmi zjevně muset činit obtížná morální a etická rozhodnutí?

Intelekt a morálka

Jak se systémy umělé inteligence (AI) vyvíjejí, odborníci se stále více snaží řešit problém, jak nejlépe dát systému etický a morální základ pro provádění určitých akcí. Nejpopulárnějším nápadem je, aby AI vyvodila závěry studiem lidských rozhodnutí. K otestování tohoto předpokladu vytvořili vědci z Massachusettského technologického institutu Morální stroj. Návštěvníci webových stránek byli požádáni, aby se rozhodli, co by mělo autonomní vozidlo dělat, když čelí poměrně těžké volbě. Jedná se například o známé dilema o potenciální nehodě, která má pouze dvě možnosti rozvoje událostí: auto může zasáhnout tři dospělé, aby zachránili životy dvou dětí, nebo může udělat opak. Kterou možnost byste si měli vybrat? A je možné napříkladobětovat život starší osoby, aby zachránil těhotnou ženu?

Výsledkem je, že algoritmus shromáždil obrovskou databázi výsledků testů a Ariel Procaccia z katedry informatiky na Carnegie Mellon University se rozhodla použít je ke zlepšení inteligence strojů. V nové studii on a jeden z tvůrců projektu, Iyad Rahwan, naložili kompletní základnu projektu Morální stroj do AI a požádali systém, aby předpověděl, jak by auto na autopilotu reagovalo na podobné, ale stále mírně odlišné scénáře. Procaccia chtěla ukázat, jak může být hlasovací systém řešením pro „etickou“umělou inteligenci. “Autor práce sám připouští, že takový systém je samozřejmě ještě příliš brzy na to, aby byl aplikován v praxi, ale výborně dokazuje samotný koncept, který to je možné.

Křížová morálka

Propagační video:

Samotná myšlenka volby mezi dvěma morálně negativními výsledky není nová. Etika pro to používá samostatný termín: princip dvojitého účinku. Jedná se však o oblast bioetiky, ale dosud nikdo takový systém na automobil nepoužíval, a proto studie vzbudila zvláštní zájem odborníků z celého světa. Spolupředseda OpenAI Elon Musk věří, že vytváření „etické“AI je záležitostí vypracování jasných pokynů nebo politik, které budou vodítkem při vývoji programu. Politici ho postupně poslouchají: například Německo vytvořilo první etické principy pro autonomní automobily na světě. Dokonce i Google Alphabet AI DeepMind má nyní oddělení etiky a veřejné morálky.

Další odborníci, včetně týmu vědců z Duke University, se domnívají, že nejlepším způsobem, jak pokročit vpřed, je vytvořit „obecný rámec“, který popisuje, jak bude AI v dané situaci činit etická rozhodnutí. Věří, že sjednocení kolektivních morálních názorů, stejně jako ve stejném Morálním stroji, učiní umělou inteligenci v budoucnu ještě morálnější než moderní lidská společnost.

Kritika „morálního stroje“

Ať je to jakkoli, v současné době není princip „většinového názoru“zdaleka spolehlivý. Například jedna skupina respondentů může mít předsudky, které nejsou společné pro všechny ostatní. Výsledkem bude, že umělé inteligence, kterým byl dán přesně stejný soubor dat, mohou na základě různých vzorků těchto informací dojít k různým závěrům.

Pro profesora Jamese Grimmelmanna, který se specializuje na dynamiku mezi softwarem, bohatstvím a mocí, vypadá samotná myšlenka veřejné morálky chybně. „Není schopen učit etiku v oblasti umělé inteligence, ale pouze jí propůjčuje zdání etických standardů, které jsou vlastní určité části populace,“říká. A sám Procaccia, jak bylo uvedeno výše, připouští, že jejich výzkum není nic jiného než úspěšný důkaz konceptu. Je však přesvědčen, že takový přístup by mohl přinést úspěch celé kampani k vytvoření vysoce morální AI v budoucnu. „Demokracie má bezpochyby řadu nedostatků, ale jako jednotný systém funguje - i když někteří lidé stále přijímají rozhodnutí, s nimiž většina nesouhlasí.“

Vasily Makarov