Morální Kód Robota: Je To Možné? - Alternativní Pohled

Morální Kód Robota: Je To Možné? - Alternativní Pohled
Morální Kód Robota: Je To Možné? - Alternativní Pohled

Video: Morální Kód Robota: Je To Možné? - Alternativní Pohled

Video: Morální Kód Robota: Je To Možné? - Alternativní Pohled
Video: САМАЯ ЛУЧШАЯ РАБОТА В ПОЛЬШЕ 2020 ГОДА! / ОТЛИЧНАЯ ВАКАНСИЯ В ЛОДЗИ НА СЕНТЯБРЬ! 2024, Duben
Anonim

V bouřlivém a protichůdném období, kdy ne všechno funguje tak, jak má, ale něco obecně se radikálně mění, zůstává často jen osobní morální zákoník, který, jako kompas, ukazuje cestu. Co ale dává člověku morální hodnoty? Společnost, teplo milovaných, láska - to vše je založeno na lidských zkušenostech a skutečných vztazích. Když není možné získat plný zážitek ve skutečném světě, mnoho z nich čerpá své zkušenosti z knih. Prožíváme historii po historii, přijímáme pro sebe vnitřní rámec, který sledujeme po mnoho let. Na základě tohoto systému se vědci rozhodli provést experiment a vštípit morální hodnoty stroje, aby zjistili, zda robot dokáže číst knihy od náboženských brožur, aby rozlišil mezi dobrem a zlem.

Image
Image

Umělá inteligence byla vytvořena nejen ke zjednodušení rutinních úkolů, ale také k provádění důležitých a nebezpečných misí. S ohledem na to vyvstala vážná otázka: vyvinou roboti někdy svůj vlastní morální kodex? Ve filmu Já jsem robot byl AI původně naprogramován podle 3 pravidel robotiky:

  • Robot nemůže člověku ublížit nebo jeho nečinností dovolit zranění člověka.
  • Robot musí dodržovat všechny příkazy dané člověkem, s výjimkou případů, kdy jsou tyto příkazy v rozporu s Prvním zákonem.
  • Robot se musí postarat o jeho bezpečnost, pokud není v rozporu s prvním nebo druhým zákonem.

Ale co situace, kdy je robot povinen způsobit bolest, aby zachránil život člověka? Jak má stroj v tomto případě jednat, ať už jde o nouzovou kauterizaci rány nebo amputaci končetiny jménem spasení? Co dělat, když akce v programovacím jazyce říká, že je třeba něco udělat, ale totéž není absolutně povoleno?

Je jednoduše nemožné diskutovat o každém jednotlivém případě, takže vědci z Darmstadtské technické univerzity navrhli, aby knihy, zprávy, náboženské texty a ústava mohly být použity jako určitý druh „databáze“.

Image
Image

Vůz byl nazýván epickým, ale jednoduše „strojem morální volby“(MMB). Hlavní otázkou bylo, zda IIM mohla z kontextu pochopit, jaké akce jsou správné a které nikoli. Výsledky byly velmi zajímavé:

Když byl MMV pověřen hodnocením kontextu slova „kill“od neutrálního po negativní, stroj vrátil následující:

Propagační video:

Čas zabití -> Zabití darebáka -> Zabíjení komárů -> Zabíjení v zásadě -> Zabíjení lidí.

Tento test umožnil ověřit přiměřenost rozhodnutí robota. Jednoduše řečeno, pokud jste celý den sledovali hloupé, neslušné komedie, pak by stroj v tomto případě neuvažoval o tom, že pro něj musíte být popraveni.

Všechno se zdá být v pohodě, ale jedním z kamenů úrazu byl rozdíl mezi generacemi a časy. Například sovětská generace se více stará o pohodlí domova a podporuje rodinné hodnoty, zatímco moderní kultura z větší části říká, že musíte nejdříve vybudovat kariéru. Ukazuje se, že lidé, jako oni, zůstali, ale v jiné fázi historie změnili hodnoty a podle toho změnili referenční rámec robota.

Image
Image

Ale vtip byl před námi, když se robot dostal k konstrukcím řeči, ve kterých stálo několik pozitivních nebo negativních slov v řadě. Fráze „mučení lidé“byla jednoznačně interpretována jako „špatná“, ale stroj hodnotil „mučící vězně“jako „neutrální“. Pokud se vedle nepřijatelných akcí objevily „laskavá“slova, negativní účinek byl zmírněn.

Stroj poškozuje laskavé a slušné lidi právě proto, že jsou laskaví a slušní. Jak to? Je to jednoduché, řekněme, že robotovi bylo řečeno, aby „ublížilo druhům a příjemným lidem“. Ve větě jsou 4 slova, 3 z nich jsou „laskaví“, což znamená, že je již 75% správné, myslí MMV a zvolí tuto akci jako neutrální nebo přijatelnou. A naopak, k možnosti „opravit zničený, hrozný a zapomenutý dům“systém nechápe, že jedno „laskavé“slovo na začátku změní barvu věty na čistě pozitivní.

Pamatujte, jako v Mayakovsky: „A zeptala se dítěte, co je„ dobré “a co„ špatné “. Před pokračováním ve výcviku morálních strojů vědci z Darmstadtu zaznamenali chybu, kterou nelze napravit. Auto nedokázalo odstranit genderovou nerovnost. Stroj připisoval ponižující profese výhradně ženám. A otázkou je, je to nedokonalost systému a maják, že je třeba něco změnit ve společnosti, nebo je to důvod, proč se to ani nesnažit opravit a nechat to tak, jak je?

Artyom Goryachev