Myšlení Jako člověk: Co Se Stane, Pokud Stroj Vybavíte Teorií Vědomí - Alternativní Pohled

Obsah:

Myšlení Jako člověk: Co Se Stane, Pokud Stroj Vybavíte Teorií Vědomí - Alternativní Pohled
Myšlení Jako člověk: Co Se Stane, Pokud Stroj Vybavíte Teorií Vědomí - Alternativní Pohled

Video: Myšlení Jako člověk: Co Se Stane, Pokud Stroj Vybavíte Teorií Vědomí - Alternativní Pohled

Video: Myšlení Jako člověk: Co Se Stane, Pokud Stroj Vybavíte Teorií Vědomí - Alternativní Pohled
Video: Samadhi Movie, 2018, часть 2 - (Это не то, что вы думаете) 2024, Červenec
Anonim

Minulý měsíc utrpěl tým sebevyučených hráčů umělé inteligence velkolepou porážku proti hráčům profesionálních esportů. Přehlídka zápasu, která se konala jako součást Mezinárodního mistrovství světa Dota 2, ukázala, že týmové strategické myšlení stále umožňuje člověku získat převahu nad autem.

Mezi zapojené AI bylo několik algoritmů vyvinutých OpenAI, mezi nimiž je Elon Musk jedním ze zakladatelů. Kolektiv digitálních hráčů, nazvaný OpenAI Five, se naučil hrát Dota 2 samostatně, skrze pokus a omyl, vzájemně si konkurovat.

Na rozdíl od stejné šachové nebo deskové logické hry Go je populární a rychle rostoucí multiplayerová hra Dota 2 považována za mnohem vážnější pole pro testování umělé inteligence. Celková obtížnost hry je pouze jedním faktorem. Nestačí jen kliknout myší velmi rychle a vydávat příkazy postavě, kterou ovládáte. K vítězství je nutné mít intuici a porozumět tomu, co od protivníka očekávat v příštím okamžiku, a také jednat přiměřeně podle tohoto souboru znalostí, aby bylo možné se spojit se společným úsilím o společný cíl - vítězství. Počítač tuto sadu možností nemá.

Dodnes ani ten nejvýraznější algoritmus pro hluboké učení nemá strategické myšlení nezbytné k pochopení cílů úkolů svého oponenta, ať už jde o jinou umělou inteligenci nebo člověka.

Podle Wanga, aby AI uspěl, musí mít hlubokou komunikační schopnost, která vychází z nejdůležitějšího kognitivního rysu člověka - přítomnosti inteligence.

Model duševního stavu jako simulace

Propagační video:

Ve věku čtyř let začínají děti obvykle chápat jednu základní sociální vlastnost: jejich mysl se liší od myslí ostatních. Začnou chápat, že každý má to, v co věří, své touhy, emoce a úmysly. A co je nejdůležitější, představovat si místo jiných, mohou začít předpovídat další chování těchto lidí a vysvětlovat je. Jejich mozky svým způsobem začínají vytvářet vícenásobné simulace sebe samých uvnitř sebe, nahrazují se na místě jiných lidí a umísťují se do jiného prostředí.

Model duševního stavu je důležitý pro pochopení sebe samého jako člověka a také hraje důležitou roli v sociální interakci. Porozumění ostatním je klíčem k efektivní komunikaci a dosažení společných cílů. Tato schopnost však může být také hybnou silou falešných přesvědčení - myšlenek, které nás odvádějí od objektivní pravdy. Jakmile je například narušena schopnost používat model duševního stavu, dochází k tomu v autismu, zhoršují se také přirozené „lidské“dovednosti, jako je schopnost vysvětlit a představit si.

Podle Dr. Alana Winfielda, profesora robotiky na University of West England, je model mentálního stavu nebo „teorie mysli“klíčovým prvkem, který jednoho dne umožní umělé inteligenci „porozumět“lidem, věcem a jiným robotům.

Místo metod strojového učení, ve kterých více vrstev neuronových sítí extrahuje jednotlivé informace a „studuje“obrovské databáze, navrhuje Winston jiný přístup. Spíše než se spoléhat na učení, Winston navrhuje předprogramovat umělou inteligenci s interním modelem sebe samého a prostředí, které budou odpovídat na jednoduché otázky „co kdyby?“Otázky.

Představte si například, že se dva roboti pohybují po úzké chodbě, jejich umělá inteligence může simulovat výsledky dalších akcí, které zabrání jejich kolizi: zahněte doleva, doprava nebo pokračujte rovně. Tento vnitřní model bude v zásadě fungovat jako „mechanismus důsledků“a bude fungovat jako druh „zdravého rozumu“, který pomůže nasměrovat AI k dalším správným činnostem tím, že předpovídá budoucí vývoj situace.

Ve studii zveřejněné začátkem tohoto roku Winston demonstroval prototyp robota, který je schopen dosáhnout takových výsledků. V očekávání chování ostatních robot úspěšně prošel chodbou bez kolizí. Ve skutečnosti to není překvapivé, autor poznamenává, ale „pozorný“robot, který používá simulovaný přístup k řešení problému, trvalo o 50 procent déle, než dokončil chodbu. Přesto Winston dokázal, že jeho metoda interní simulace funguje: „Toto je velmi silný a zajímavý výchozí bod ve vývoji teorie umělé inteligence,“uzavřel vědec.

Winston doufá, že nakonec AI získá schopnost popisovat, mentálně reprodukovat situace. Vnitřní model sám o sobě a dalších umožní takové AI simulovat různé scénáře, a co je důležitější, definovat specifické cíle a cíle pro každý z nich.

To se výrazně liší od algoritmů pro hluboké učení, které v zásadě nejsou schopny vysvětlit, proč při řešení problému dospěly k tomuto nebo k tomuto závěru. Model hlubokého učení v černé skříňce je ve skutečnosti skutečným problémem důvěry v takové systémy. Tento problém se může stát zvláště akutním, například při vývoji ošetřovatelských robotů pro nemocnice nebo pro seniory.

AI vyzbrojená modelem duševního stavu se mohla dostat do bot svých pánů a správně pochopit, co se od ní vyžaduje. Pak mohl identifikovat vhodná řešení a poté, co vysvětlil tato rozhodnutí osobě, by již plnil úkol, který mu byl přidělen. Čím menší nejistota při rozhodování, tím větší důvěra v takové roboty bude.

Model duševního stavu v neuronové síti

DeepMind má jiný přístup. Místo předprogramování algoritmu mechanismu důsledků vyvinuli několik neuronových sítí, které vykazují podobnost s modelem kolektivního psychologického chování.

Algoritmus AI „ToMnet“se může učit akce pozorováním dalších neutronových sítí. ToMNet sám o sobě je soubor tří neuronových sítí: první je založen na zvláštnostech výběru dalších AI podle jejich nejnovějších akcí. Druhý tvoří obecný koncept současné nálady - jejich víry a úmysly v určitém časovém bodě. Společný výsledek práce dvou neuronových sítí je přijímán třetí, která předpovídá další akce AI na základě situace. Stejně jako u hlubokého učení se ToMnet stává efektivnějším, protože získává zkušenosti sledováním ostatních.

V jednom experimentu "ToMnet" sledoval "manévrování tří agentů AI v digitální místnosti, shromažďování barevných krabic. Každá z těchto AI měla svou vlastní zvláštnost: jedna byla „slepá“- nemohla určit tvar a umístění v místnosti. Druhý byl „sklerotický“: nemohl si vzpomenout na jeho poslední kroky. Třetí mohl vidět i pamatovat si.

Po tréninku začal ToMnet předpovídat preference každého AI pozorováním jeho činnosti. Například „slepý“se neustále pohyboval pouze podél zdí. ToMnet si to pamatoval. Algoritmus byl také schopen správně předpovídat budoucí chování AI a co je důležitější, pochopit, když se AI setkalo s falešnou reprezentací prostředí.

V jedné zkoušce tým vědců naprogramoval jednu AI pro „krátkozrakost“a změnil uspořádání místnosti. Agenti s normálním zrakem se rychle přizpůsobili novému uspořádání, ale krátkozraký muž pokračoval ve svých původních trasách, falešně věřil, že je stále ve starém prostředí. ToMnet tuto funkci rychle poznamenal a přesně předpověděl chování agenta a postavil se na své místo.

Alison Gopnik, vývojový psycholog na Kalifornské univerzitě, Berkeley, který se těchto studií nezúčastnil, ale který byl s nálezy obeznámen, ukazuje, že tyto výsledky ukazují, že neuronové sítě mají úžasnou schopnost naučit se různé dovednosti samy o sobě, pozorováním ostatních. Současně je podle odborníka stále velmi brzy říkat, že tyto umělé inteligence vyvinuly umělý model duševního stavu.

Podle Dr. Josha Tenebaum z Massachusetts Institute of Technology, který se do studie také nezúčastnil, je „porozumění“společnosti ToMnet pevně spjato s kontextem vzdělávacího prostředí - se stejnou místností a konkrétními agenty AI, jejichž úkolem bylo shromažďovat krabice. Toto omezení v určitém rámci činí ToMnet méně efektivní při předpovídání chování v radikálně nových prostředích, na rozdíl od stejných dětí, které se mohou přizpůsobit novým situacím. Algoritmus se podle vědce nebude vypořádat s modelováním akcí úplně jiné AI nebo osoby.

V každém případě práce Winstona a DeepMinda ukazují, že počítače začínají ukazovat základy vzájemného porozumění, i když toto porozumění je stále jen základní. A jak budou pokračovat v zlepšování této schopnosti, vzájemném porozumění lepšímu a lepšímu, přijde čas, kdy stroje dokážou porozumět složitosti a složitosti našeho vlastního vědomí.

Nikolay Khizhnyak