Umělá Inteligence Není Zdaleka Tak Chytrá, Jak Si Vy A Elon Musk Myslíte, že Je - Alternativní Pohled

Obsah:

Umělá Inteligence Není Zdaleka Tak Chytrá, Jak Si Vy A Elon Musk Myslíte, že Je - Alternativní Pohled
Umělá Inteligence Není Zdaleka Tak Chytrá, Jak Si Vy A Elon Musk Myslíte, že Je - Alternativní Pohled

Video: Umělá Inteligence Není Zdaleka Tak Chytrá, Jak Si Vy A Elon Musk Myslíte, že Je - Alternativní Pohled

Video: Umělá Inteligence Není Zdaleka Tak Chytrá, Jak Si Vy A Elon Musk Myslíte, že Je - Alternativní Pohled
Video: JE UMĚLÁ INTELIGENCE NEBEZPEČNÁ? 2024, Smět
Anonim

V březnu 2016 byl počítačový algoritmus AlphaGo společnosti DeepMind schopen porazit Lee Sedola, nejlepšího hráče na světě s puzzle hlavami. Tato událost se stala jedním z definujících okamžiků v historii technologického průmyslu, který byl zároveň vítězstvím počítače IBM Deep Blue nad světovým šachovým šampionem Garry Kasparovem, a vítězstvím superpočítače Watson od stejného IBM v testu Ohrožení pro polymathy v roce 2011.

Přesto, přes tato vítězství, jak působivý jak oni mohou být, to je více o tréninkových algoritmech a použití surového výpočetního výkonu než o skutečné umělé inteligenci. Bývalý profesor robotiky MIT Rodney Brooks, který spoluzaložil iRobot a později Rethink Robotics, říká, že učení algoritmu pro hraní složité strategické hádanky není inteligence. Alespoň ne, jak si to představujeme pro člověka.

Odborník vysvětluje, že bez ohledu na to, jak silný může být AlphaGo při plnění úkolu, který mu byl prokázán, ve skutečnosti není schopen nic jiného. A co víc, je připraven hrát pouze na standardním hřišti 19 x 19. V rozhovoru s TechCrunch, Brooks hovořil o tom, jak nedávno měl příležitost chatovat s týmem DeepMind a zjistit zajímavý detail. Na otázku, co by se stalo, kdyby organizátoři změnili velikost hrací plochy a zvětšili ji na 29 x 29 čtverců, tým AlphaGo připustil, že i malá změna hřiště povede k tomu, že „jsme hotovi“.

Myslím, že lidé vidí, jak dobře algoritmus dělá jednu věc, a zdá se, že si okamžitě myslí, že to dokáže ostatním stejně efektivně. Ale jde o to, že nemůže, “poznamenal Brooks.

Hrubá inteligence

V květnu letošního roku, v rozhovoru s Davinem Coldwayem na TechCrunch Disrupt, Kasparov poznamenal, že vývoj počítače schopného hrát šachy na globální úrovni je jedna věc, ale nazývat takovou počítač čistou umělou inteligencí, protože tomu tak není, je úplně jiná. Je to jen stroj, který dává veškerý svůj výpočetní výkon do řešení problému, který je zvyklý dělat nejlépe.

"V šachu stroje vyhrávají díky síle hlubokého výpočtu." Mohou se stát naprosto neporazitelnými díky obrovské databázi, velmi rychlému hardwaru a logičtějším algoritmům. Chybí jim však porozumění. Nerozpoznávají strategické vzorce. Stroje nemají žádný účel, “řekl Kasparov.

Propagační video:

Gil Pratt, generální ředitel Toyota Institute, divize AI a AI společnosti Toyota v domácích robotech a autech s vlastním pohonem, také hovořil s TechCrunch na zasedání robotiky. Podle jeho názoru strach, který slyšíme od široké škály lidí, včetně Elona Muska, který nedávno označil umělou inteligenci za „existenciální hrozbu pro lidstvo“, nemůže být způsoben ničím jiným než dystopickými popisy světa, které nám nabízí sci-fi.

„Naše současné systémy hlubokého učení jsou při plnění přidělených úkolů tak dobré, jak jsme je navrhli. Ve skutečnosti jsou však velmi vysoce specializovaní a maličtí. Proto považuji za důležité v souvislosti s tímto tématem pokaždé zmínit, jak jsou dobré a jak neefektivní. A také, jak daleko jsme od bodu, kdy tyto systémy mohou začít představovat hrozbu, o které mluví Elon Musk a další, “komentoval Pratt.

Brooks zase na TechCrunch Robotics Session poznamenal, že mezi lidmi obecně existuje tendence věřit, že pokud je algoritmus schopen zvládnout úkol „X“, je zjevně stejně chytrý jako člověk.

"Myslím, že důvod, proč lidé, včetně Elona Muska, udělají tuto chybu, je tento." Když vidíme, jak člověk vykonává velmi dobrou práci s úkolem, který mu byl přidělen, chápeme, že má v této věci vysokou kompetenci. Zdá se mi, že lidé se snaží aplikovat stejný model na strojové učení. A právě zde leží největší chyba, “říká Brooks.

Generální ředitel Facebooku Mark Zuckerberg minulý neděli uspořádal živé vysílání, během něhož také kritizoval komentáře Elona Muska a označil je za „poněkud nezodpovědné“. Podle Zuckerberga bude AI schopna výrazně zlepšit naše životy. Musk se zase rozhodl, že nebude mlčet, a odpověděl Zuckerbergovi, že má o AI „omezené porozumění“. Toto téma ještě nebylo uzavřeno a Musk slíbil o něco později reagovat podrobněji na útoky kolegů v IT průmyslu.

Mimochodem, Musk není jediný, kdo věří, že umělá inteligence může představovat potenciální hrozbu. Fyzik Stephen Hawking a filozof Nick Bostrom také vyjadřují své obavy z toho, že umělá inteligence může proniknout do lidského života. Nejpravděpodobněji však mluví o obecnější umělé inteligenci. O tom, co se studuje v laboratořích, jako je Facebook AI Research, DeepMind a Maluuba, spíše než o vysoce specializovaném AI, jehož první začátky můžeme vidět dnes.

Brooks také poznamenává, že mnoho kritiků umělé inteligence v této oblasti nefunguje, a navrhli, že tito lidé prostě nechápou, jak obtížné může být nalezení řešení každého jednotlivého problému v této oblasti.

"Ve skutečnosti není mnoho lidí, kteří považují AI za existenciální hrozbu." Stephen Hawking, britský astrofyzik a astronom Martin Rees … a několik dalších. Ironií je, že většina z nich má jedno společné - nepracují ani v oblasti umělé inteligence, “řekl Brooks.

"Pro ty z nás, kteří pracují s umělou inteligencí, je zcela zřejmé, jak obtížné může být něco, co by fungovalo na úrovni hotového produktu."

Chybná prezentace AI

Část problému také pramení ze skutečnosti, že nazýváme tuto „umělou inteligenci“. Pravda je taková, že se tato „inteligence“vůbec nepodobá lidské inteligenci, která je obvykle popsána v referenčních knihách a slovní zásobě jako „schopnost učit se, rozumět a přizpůsobovat se novým situacím“.

Pascal Kaufman, generální ředitel společnosti Starmind, startup, který pomáhá jiným společnostem využívat kolektivní inteligenci člověka k nalezení řešení obchodních problémů, studoval neurovědu již 15 let. Lidský mozek a počítač, poznamenává Kaufman, fungují velmi odlišně a bylo by zjevnou chybou je porovnat.

"Analogie - mozek funguje jako počítač - je velmi nebezpečná a stojí v cestě pokroku AI," říká Kaufman.

Odborník se také domnívá, že nebudeme pokročit v porozumění lidské inteligenci, pokud to budeme považovat za technologické.

"Je to mylná představa, že algoritmy fungují jako lidský mozek." Lidé milují algoritmy, a tak si myslí, že mozek lze pomocí jejich pomoci popsat. Myslím, že se to zásadně mýlí, “dodává Kaufman.

Pokud se něco pokazí

Existuje mnoho příkladů, kde algoritmy AI nejsou zdaleka tak chytré, jak jsme si na ně mysleli. A jedním z možná nejslavnějších je algoritmus AI Tay, vytvořený týmem pro vývoj systémů AI společnosti Microsoft a mimo kontrolu minulý rok. Trvalo méně než den, než se bota stala skutečným rasistou. Odborníci říkají, že k tomu může dojít u jakéhokoli systému umělé inteligence, pokud jsou předloženy s nesprávnými vzory rolí. V případě Tay se dostala pod vliv rasistických a jiných útočných forem slovní zásoby. A protože to bylo naprogramováno tak, aby se „učilo“a „zrcadlo“, brzy se vymklo kontrole vědců.

Rozšířený výzkum od Cornell a Wyoming zjistil, že je velmi snadné trikovat algoritmy vyškolené k identifikaci digitálních obrázků. Zjistili, že obraz, který vypadal jako „zakódovaný nesmysl“pro lidi, byl algoritmem identifikován jako obraz nějakého každodenního předmětu, jako je „školní autobus“.

Podle článku zveřejněného v MIT Tech Review, který popisuje tento projekt, není zcela jasné, proč může být algoritmus podveden způsobem, jakým vědci dělali. Zjistili jsme, že lidé se naučili rozpoznat, co je před nimi - buď soběstačný obrázek, nebo nějaký nepochopitelný obraz. Algoritmy, podle pořadí, analýza pixelů, je snadnější manipulovat a klamat.

Pokud jde o automobily s vlastním pohonem, všechno se ukázalo být mnohem komplikovanější. Existuje několik věcí, kterým člověk rozumí, když se připravuje čelit určitým situacím. Bude velmi obtížné naučit stroj to udělat. Velký článek publikovaný v jednom z automobilových blogů Rodney Brooksem v lednu tohoto roku uvádí několik příkladů takových situací, včetně jednoho, který popisuje auto s vlastním pohonem, které se blíží ke značce zastavení vedle přechodu pro chodce ve městě. Na samém začátku stojí dospělý a dítě a komunikují.

Algoritmus bude s největší pravděpodobností vyladěn tak, aby počkal, až chodci přejdou po silnici. Ale co když tito chodci ani nenapadlo přejít silnici, protože stojí a čekají, řekněme, na školní autobus? Lidský řidič by v tomto případě mohl vystrašit chodce, kteří by na něj mohli mávat, informovat ho, že může projít. Bezpilotní vozidlo v takové situaci může jednoduše uvíznout pevně a nekonečně čekat, až lidé přejdou silnici, protože algoritmus nerozumí takovým jedinečným lidským signálům, píše Brooks.

Každý z těchto příkladů nám ukazuje, jak daleko se musíme ještě vyvinout ve vývoji algoritmů umělé inteligence. Otázkou zůstává, jak dobře zobecnění vývojáři umělé inteligence mohou uspět. Existují věci, s nimiž se člověk může snadno vypořádat, ale naučit se algoritmu bude skutečným mučením. Proč? Protože my lidé nejsou v našem učení omezeni na soubor specifických úkolů.

Nikolay Khizhnyak