Chrání Nás „tři Zákony Robotiky“? - Alternativní Pohled

Obsah:

Chrání Nás „tři Zákony Robotiky“? - Alternativní Pohled
Chrání Nás „tři Zákony Robotiky“? - Alternativní Pohled

Video: Chrání Nás „tři Zákony Robotiky“? - Alternativní Pohled

Video: Chrání Nás „tři Zákony Robotiky“? - Alternativní Pohled
Video: АтЫ баты шли солдаты / считалка 2024, Duben
Anonim

Je to padesát let od doby, kdy Isaac Asimov přišel se svými slavnými Three Laws of Robotics - sadou pravidel, která musí dodržovat každý respektující robot. Ačkoli zpočátku to bylo jen literární zařízení, tři zákony se staly původním receptem, jak se vyhnout „robotocalypse“. Naštěstí existují odborníci, kteří hledají jisté, zda Azimovovy záruky obstály ve zkoušce času. Bohužel, všichni říkají ne.

Nejprve si připomeňme tyto tři zákony:

Robot nemůže člověku ublížit nebo jeho nečinností dovolit zranění člověka.

Robot musí dodržovat všechny příkazy dané člověkem, s výjimkou případů, kdy jsou tyto příkazy v rozporu s Prvním zákonem.

Robot se musí postarat o jeho bezpečnost, pokud není v rozporu s prvním a druhým zákonem.

Později Azimov přidal čtvrtý nebo nulový zákon, který předcházel ostatním z hlediska priority:

Propagační video:

0. Robot nemůže člověku ublížit, pokud nemůže prokázat, že bude nakonec prospěšný pro celé lidstvo.

Image
Image

Ve fantasy vesmíru v Asimově se téměř všichni roboti museli řídit těmito zákony. Nebyly to jen návrhy nebo pokyny - do softwaru byly zabudovány zákony. Navíc tato pravidla nelze obejít, přepsat nebo revidovat.

Jak sám Asimov ukázal, nedokonalosti, mezery a dvojznačnosti v těchto zákonech často vedly k podivnému a nelogickému chování robotů. Zákony byly příliš vágní a často nedokázaly definovat a odlišit „lidi“od „robotů“. Kromě toho roboti mohli nevědomky porušit zákony, pokud jim nebyly k dispozici úplné informace. Také příliš mazaný robot nebo umělá inteligence museli být pod tlakem, aby nepřeprogramovali své jádro.

Tento rok je rok 2014 a mnoho běžných věcí od našich životů až po fantazie minulého století se může zdát otevřenou fantazií. Mnoho lidí mělo pocit, že Asimovovy zákony měly zůstat jako literární zařízení. Ale sám Azimov v roce 1981 poznamenal, že jeho zákony by mohly fungovat. The Compute! uvedl následující:

"Když se mě někdo zeptá, jaké by to bylo, kdyby moje tři zákony robotiky byly skutečně použity k definování chování robotů, odpověď je připravena." Samozřejmě za předpokladu, že roboti jsou dostatečně flexibilní a všestranní, aby vykazovali různá chování. Moje odpověď zní ano, tři zákony jsou jediným způsobem, jak mohou lidé komunikovat s roboty - nebo čímkoli jiným.

Téměř o třicet let později jsme se přiblížili realitě, ve které budeme mít roboty - nebo přesněji umělou inteligenci, která je ovládá - dostatečně flexibilní a univerzální pro různé průběhy chování. Zůstává jen otázkou času: když stroj předčí člověka ve všech ohledech, od fyzické síly po sílu fantazie.

Děsivá věc je, že prakticky neexistuje žádný prostor pro chyby. Pokud je umělá superintelligence špatně naprogramovaná nebo lhostejná k lidem, povede to ke katastrofě. Musíme se ujistit, že umělá inteligence je bezpečná, pokud chceme přežít její vznik. “

Odpovězte na otázku „mohou Azimovovy tři zákony pomoci?“Převzali ji dva teoretici umělé inteligence: Ben Herzel (Aidyia Holdings) a Louis Helm, zástupce ředitele Ústavu pro výzkum strojních informací (MIRI) a výkonný redaktor časopisu Rockstar Research. Poté, co jsme s nimi hovořili, vyšlo najevo, že Asimovovy zákony se obecně nemohou vyrovnat s úkolem, který jim byl přidělen, a pokud potřebujeme vytvořit bezpečnou AI, budeme muset vyvinout něco úplně jiného.

Asimova budoucnost?

Image
Image

Rozhovor s Herzelem a Helmem začal tím, o čem se Asimov nemýlil, předpovídal budoucnost a kde se mýlil.

"Myslím, že typ robotů, které si Asimov představil, bude možný v ne příliš vzdálené budoucnosti," odpověděl Herzel. - Ve většině svých smyšlených světů však autor předpokládal, že humanoidní roboti budou vrcholem robotiky a techniky umělé inteligence. To je nepravděpodobné. Velmi brzy po dosažení statusu robotů Azimov bude k dispozici vytvoření umělé superinteligence a super robotů. ““

Typický svět budoucnosti v Asimovových příbězích o robotech bude podle Herzela tedy podobný tomu, ve kterém dnes žijeme, ale s inteligentními roboty, kteří chodí po ulicích.

"Je nepravděpodobné, že k tomu dojde, a pokud ano, nebude to dlouho zpožděno."

Pro Helma se roboti jeví úplně jinak.

„Hlavním problémem, který bude podle mého názoru pro lidstvo nejdůležitější, není morální regulace gigantického počtu napůl inteligentních humanoidů, ale nakonec vývoj pokročilých forem umělé inteligence (v jakémkoli těle). Tento vývoj superintelligence je filtrem, kterým musí lidstvo nakonec projít. Proto je vypracování bezpečnostní strategie pro tento přechod tak důležité. Zdá se mi úplně divné, že roboti, androidi nebo „emulace“budou existovat po dobu deseti a více let, dokud lidstvo nebude čelit skutečnému problému rozvoje strojní etiky pro superintelligence. “

Dobrý začátek?

Image
Image

Vzhledem k tomu, že tři asimovské zákony robotiky byly prvním upřímným pokusem vyřešit velmi vážný problém - problém bezpečného chování strojů s umělou superintelligence - stojí za to hledat okamžiky, ve kterých mohou být zákony stále účinné (nebo alespoň inspirativní).

"Abych byl upřímný, nenašel jsem žádnou inspiraci v těchto třech zákonech robotiky," říká Helm. - Podstatou strojové etiky je to, že nesplňují základ strojové etiky. Možná jsou tři zákony robotiky všeobecně známé, ale ve skutečnosti je zbytečné je používat jako základ pro programování. ““

„Z nějakého důvodu se systém dobré etiky - zvaný deontologie - stal nespolehlivým základem pro etiku. Existuje řada filosofů, kteří se snaží vyřešit problémy deontologie, ale jsou z velké části stejní lidé, kteří hledají „inteligentní design“a „božský zásah“. Nikdo je nebere vážně. ““

Nevýhody Asimovových tří zákonů robotiky se zmenšují na následující:

Adversarial v přírodě

Na základě zastaralé etické teorie (deontologie)

Ani nepracujte ve fikci

Herzel souhlasí:

„Účelem těchto tří zákonů bylo jejich zajímavé porušení; proto jsou jejich příběhy obzvláště zábavné. Tyto tři zákony proto mohou zůstat jen morálním příkladem, jak to neudělat. Pokud je vezmeme jako základ, budou v nich nevyhnutelně mezery “.

Herzel věří, že ve skutečnosti tyto zákony nebudou fungovat, protože podmínky jejich účasti jsou nejednoznačné a zůstávají předmětem interpretace - což znamená, že jsou extrémně závislé na těch, kdo překlady provádějí.

Předsudky proti robotům?

Dalším aspektem (a potenciální vadou) tří zákonů ve zdánlivém šovinismu je předpoklad, že roboti by měli i přes svou vyšší moc zůstat podřízeni lidem, lidským potřebám a prioritám.

"Azimovova společnost budoucnosti sestává výhradně ze šovinistů: lidé mají mnohem více práv než roboti." Tři zákony robotiky byly vytvořeny, aby udržovaly právě takový společenský řád. ““

Image
Image

Helm vnímá tento problém poněkud odlišně a tvrdí, že pokud se ocitneme v takové situaci, bude to samo o sobě důkazem, že jsme zašli příliš daleko.

"Myslím, že by nebylo rozumné navrhnout systém umělé inteligence nebo sebevědomého robota." A na rozdíl od filmů nebo knih, ve kterých tvůrci umělé inteligence „náhodně“přicházejí do inteligentních strojů, nemyslím si, že k tomu může dojít v reálném životě. To bude vyžadovat příliš mnoho úsilí a znalostí. A většina návrhářů AI jsou eticky zdatní lidé, takže se vyhnou vytváření toho, co filozofové nazývají „morálně významné bytosti“. Zejména tehdy, když mohou snadno vytvořit pokročilý stroj, který nemá etické sklony."

Helm není znepokojen potřebou vyvinout asymetrické zákony, které budou řídit hodnotu robotů nad lidmi, argumentovat (a doufat), že budoucí tvůrci umělé inteligence se budou spoléhat na některá etická omezení.

"Myslím, že lidé jsou vyrobeni z atomů, takže teoreticky může inženýr vytvořit syntetickou formu života nebo robota s morálním významem." Chtěl bych si myslet, že to nikdo neudělá. Myslím, že většina lidí také. Ale nevyhnutelně bude blázen, který chce být známý jako průkopník, i když je to neetické a hloupé. ““

Tři zákony robotiky 2.0?

S ohledem na zjevné nedostatky tří robotických zákonů Asimova se zdroj io9 zeptal: Mohou být opraveny nebo vylepšeny? Ve skutečnosti to mnoho autorů sci-fi zkusilo mnohokrát a vylepšilo to v průběhu let.

"Ne," říká Helm. "Neexistují žádné záplaty pro tři zákony."

Kromě jejich protichůdné povahy jsou zákony také protichůdné povahy.

"Jsem zastáncem přístupů strojové etiky, které jsou více kooperativní, důslednější a normativnější, což znamená, že se mohou zotavit z nedorozumění nebo korigovat nesprávné programování."

Herzel opakuje Helmova tvrzení.

Definování souboru etických předpisů jako jádra strojní etiky bude beznadějné, pokud je stroj založen na flexibilní obecné umělé inteligenci. Je-li koncipován jako intuitivní, flexibilní, adaptivní nebo etický - v tomto kontextu budou etická pravidla pro systém užitečná pouze jako hrubý návod pro aplikaci vlastní etické intuice. Ale v tomto případě se přikázání nestane základem etického systému, ale pouze aspektem. To lze vidět na lidských příkladech - etické principy, které studujeme, ale ne jako vodítka, pouze tlačí naši intuici a etické instinkty. Jsme prakticky nezávislí na etických zásadách. “

Jak vytvořit bezpečnou umělou inteligenci?

Vzhledem k nedostatečnosti právního přístupu se můžete zeptat Gertzela a Helma na moderní přístupy k problému „bezpečné AI“.

„Jen velmi málo vědců z obecné umělé inteligence se domnívá, že je možné vytvořit systém, který je zcela bezpečný,“říká Herzel. "Ale většinu to neobtěžuje, protože v tomto životě nemůže být zaručeno vůbec nic."

Herzel věří, že jakmile vytvoříme obecný systém umělé inteligence nebo jeho embryo, můžeme provádět výzkum a experimenty, které nám řeknou mnohem více o etice AI, než víme.

"Doufejme, že tímto způsobem můžeme formulovat dobré teorie o etice umělé inteligence, které nám umožní ponořit se hlouběji do tohoto tématu." Ale nyní je docela obtížné teoretizovat o etice AI, protože nemáme jen dobré teorie, nemáme vůbec žádné teorie. ““

„A lidem, kteří sledovali příliš mnoho terminátorů, se proces vytváření umělé inteligence může zdát zastrašující, protože v tomto kontextu chybí slovo„ primitivní “. Tímto způsobem však došlo k nejradikálnějším změnám. ““

„Když skupina inteligentních jeskyní vymyslela jazyk, neočekávala vývoj pevné formální teorie jazyka, která by mohla pomoci předpovídat budoucí změny způsobené vznikem jazyka ve společnosti.“

Než budete považovat vývoj následujících „tří zákonů“za technický problém, musíte provést hodně výzkumu. A tady se Helm a Herzel shodují.

Můj kolega z MIRI Luc Muelhauser shrnul naše odůvodnění takto. Řekl, že problémy často přecházejí od filozofie k matematice a poté k inženýrství. Filozofie je často kladena správná otázka, ale nejpraktičtějším způsobem. Nikdo nemůže s jistotou říci, zda při řešení problému došlo k nějakému pokroku. Pokud dokážeme přeformulovat důležité filosofické problémy rozumu, identifikace a hodnoty do přesných vzorců, s nimiž matematik zvládne, může být vytvořen nějaký model. Jednoho krásného dne přijde na strojírenství. “

Helm považuje tento problém za vědu a filozofii obtížný, ale je možný pokrok.

"Jsem skeptický, že filosofie bude schopna vyřešit problém, který bojuje více než 3000 let." Ale my také nemůžeme brát a začít vytvářet matematické modely otázek, které nejsou technicky přítomné. Stále potřebujeme spoustu teoretických a dokonce praktických vývojů. “

Doporučená: