Nebezpečné Lidstvo: Proč Potřebujeme Inteligentní Umělou Inteligenci? - Alternativní Pohled

Obsah:

Nebezpečné Lidstvo: Proč Potřebujeme Inteligentní Umělou Inteligenci? - Alternativní Pohled
Nebezpečné Lidstvo: Proč Potřebujeme Inteligentní Umělou Inteligenci? - Alternativní Pohled

Video: Nebezpečné Lidstvo: Proč Potřebujeme Inteligentní Umělou Inteligenci? - Alternativní Pohled

Video: Nebezpečné Lidstvo: Proč Potřebujeme Inteligentní Umělou Inteligenci? - Alternativní Pohled
Video: JE UMĚLÁ INTELIGENCE NEBEZPEČNÁ? 2024, Smět
Anonim

Když Norbert Wiener, otec kybernetiky, napsal v roce 1950 svou knihu Lidské využití lidských bytostí, byly stále hlavní elektronickými stavebními jednotkami vakuové trubice a ve skutečnosti fungovalo jen několik počítačů. Předvídal však budoucnost, kterou nyní vidíme, s bezprecedentní přesností a zaměňoval pouze drobné detaily.

Před jakýmkoli jiným filozofem umělé inteligence si uvědomil, že umělá inteligence nejen napodobuje - a nahradí - lidské bytosti v mnoha druzích intelektuálních činností, ale také změní lidi v procesu. "Jsme jen vířivky v řece neustále tekoucí vody," napsal. "Nejsme něco, co prostě žije, jsme modely, které si udržují sebe."

Například, když se objeví mnoho lákavých příležitostí, jsme ochotni zaplatit a přijmout malé náklady na provozování podniku, aby získali nové příležitosti. A velmi brzy jsme závislí na nových nástrojích, ztrácíme schopnost existovat bez nich. Možnosti jsou povinné.

Toto je velmi stará historie evoluce a mnoho kapitol z ní je nám dobře známo. Většina savců může syntetizovat svůj vlastní vitamin C, ale primáti, kteří konzumují ovoce, ztratili tuto vestavěnou schopnost. Samočinně se opakující vzorce, které nazýváme lidmi, se nyní spoléhají na oblečení, zpracované jídlo, vitamíny, stříkačky, kreditní karty, smartphony a internet. A zítra, ne-li dnes, z umělé inteligence.

Wiener předpověděl několik problémů s tímto stavem věcí, které Alan Turing a další časní AI optimisté z velké části přehlíželi. Skutečnou hrozbou, řekl, bylo:

… že takové stroje, i když jsou samy o sobě bezmocné, mohou být použity lidmi nebo blokovat lidské bytosti ke zvýšení jejich kontroly nad zbytkem rasy, nebo se političtí vůdci mohou pokusit převzít kontrolu nad svojí populací spíše pomocí politických metod než samotnými stroji, jak úzké a lhostejné k člověku, jako by byly vynalezeny mechanicky.

Je zřejmé, že tato nebezpečí jsou nyní velmi důležitá.

Například v médiích nám inovace v oblasti digitálního zvuku a videa umožňují platit malou cenu (v očích audiofilů a filmových diváků), abychom se vzdálili od analogových formátů, a na oplátku dostáváme velmi jednoduchý - příliš jednoduchý - způsob přehrávání nahrávek s téměř žádnými omezeními.

Propagační video:

Image
Image

Ale existují obrovské skryté náklady. Orwellova služba pravdy se stala skutečnou příležitostí. Techniky AI pro vytváření prakticky nerozeznatelných falešných „záznamů“způsobují, že nástroje, které jsme použili pro vyšetřování, jsou za posledních 150 let zastaralé.

Musíme prostě opustit krátkou éru fotografických důkazů a vrátit se do starého světa, kde byla zlatým standardem lidská paměť a důvěra. Nebo můžeme vyvinout nové metody obrany a útoku v boji za pravdu. Jedním z nejzajímavějších nedávných příkladů je skutečnost, že je mnohem levnější zničit pověst, než získat a chránit stejnou pověst. Wiener viděl tento jev velmi široce: „V dlouhodobém horizontu nebude žádný rozdíl mezi ozbrojením sebe a ozbrojením nepřítele.“Éra informací se také stala érou dezinformací.

Co můžeme dělat? Klíčem je Wienerovo stejné pozorování, že „tyto stroje“jsou „samy bezmocné“. Vytváříme nástroje, nikoli kolegy, a skutečnou hrozbou je, že nevidíme rozdíl.

Umělá inteligence ve své současné podobě je parazitní na lidské inteligenci. Velmi nevědomky se zmocňuje všeho, co lidští tvůrci vytvořili, a kreslí vzory - včetně našich nejtajnějších zvyklostí. Tyto stroje zatím nemají cíle ani strategie, nejsou schopny sebekritiky a inovací, pouze studují naše databáze, bez vlastních myšlenek a cílů.

Jak říká Wiener, nejsou bezmocní v tom smyslu, že jsou připoutáni nebo imobilizováni, ne, nejsou to vůbec agenti - nemají schopnost „jednat z příčin“, jak by to řekl Kant.

Z dlouhodobého hlediska je „silná umělá inteligence“nebo obecná umělá inteligence v zásadě možná, ale není žádoucí. Ještě omezenější umělá inteligence, která je dnes možná v praxi, nebude zlá. Představuje to však hrozbu - částečně proto, že ji lze zaměnit za výkonnou umělou inteligenci.

Jak silná je dnes umělá inteligence?

Propast mezi dnešními systémy a systémy sci-fi, které zaplavují populární představivost, je stále obrovská, ačkoli ji mnozí lidé, amatéři i profesionálové, podceňují. Pojďme se podívat na společnost Watson společnosti IBM, která může být v dnešní době slušná.

Tento superpočítač je výsledkem procesu ve velkém měřítku výzkumu a vývoje (výzkumu a vývoje), který zahrnoval mnoho lidí a návrhů zpravodajských informací po mnoho staletí, a používá tisícekrát více energie než lidský mozek. Jeho vítězství v ohrožení! byl skutečný triumf umožněný formálními omezeními pravidel Jeopardy!, ale i tato pravidla musela být revidována, aby se mohl zúčastnit. Musel jsem se vzdát trochu všestrannosti a přidat lidstvo, abych provedl show.

Watson je špatná společnost, navzdory klamavým reklamám od IBM, které slibují konverzační schopnost umělé inteligence na obou úrovních, a přeměnit Watsona na věřícího agenta s více tvary by bylo jako proměnit kalkulačku na Watson. Watson může být dobrým výpočtovým případem pro takového agenta, ale spíše jako mozek nebo amygdala než mysl - přinejlepším subsystém pro zvláštní účely, který slouží jako podpora, ale ne téměř systém pro plánování a formulaci cílů na základě získaných konverzačních zkušeností.

Proč bychom chtěli vytvořit myslícího a tvůrčího agenta od Watsona? Možná Turingův skvělý nápad - slavný Turingův test - nás nalákal do pasti: byli jsme posedlí vytvářením alespoň iluze skutečné osoby sedící před obrazovkou a obcházením „zlověstného údolí“.

Nebezpečí spočívá v tom, že od doby, kdy Turing představil svůj úkol - který byl primárně úkolem oklamat soudce - se tvůrci umělé inteligence pokusili dosáhnout tohoto úkolu pomocí vtipných humanoidních panenek, „kreslených“verzí, které fascinují a odzbrojí nezasvěcené. ELIZA od Josepha Weisenbauma, úplně prvního chatbota, byla příkladem vytvoření takové iluze, ale s extrémně jednoduchým algoritmem, který mohl lidi přesvědčit, že s ostatními upřímně a upřímně konverzovali.

Měl strach z toho, jak snadno jsou lidé ochotni tomu uvěřit. A pokud jsme přišli na něco z každoročního testu Lebner Prize Limited Turing Test, je to, že i ti nejchytřejší lidé, kteří se neznají v počítačovém programování, snadno padnou za tyto jednoduché triky.

Postoj lidí v umělé inteligenci k těmto technikám sahá od úsudku k odměňování a shoda spočívá v tom, že tyto triky nejsou příliš hluboké, ale mohou být užitečné. Posun v postoji, který by byl velmi vítán, by byl upřímným přiznáním, že panenky malované androidy jsou falešné reklamy, které by měly být odsouzeny, nikoli povzbuzovány.

Jak toho lze dosáhnout? Jakmile pochopíme, že lidé začínají činit rozhodnutí o životě a smrti sledováním „rady“systémů AI, jejichž vnitřní operace jsou téměř nepochopitelné, uvidíme dobrý důvod pro ty, kteří naléhají na lidi, aby těmto systémům věřili, a začali se spoléhat na normy morálky a práva.

Systémy umělé inteligence jsou velmi výkonné nástroje. Je tak silný, že i odborníci mají dobrý důvod nedůvěřovat svému vlastnímu úsudku, když jsou těmito nástroji představeny „úsudky“. Pokud však tito uživatelé nástrojů budou mít prospěch z finanční nebo jiné popularizace těchto nástrojů, musí se ujistit, že vědí, jak to udělat s plnou odpovědností, maximální kontrolou a odůvodněním.

Licencování a schvalování provozovatelů takových systémů - stejně jako udělujeme licenci lékárníkům, jeřábníkům a dalším odborníkům, jejichž chyby a nesprávná posouzení mohou mít strašné následky - možná s podporou pojišťoven a dalších organizací nutí tvůrce systémů AI jít dlouhou cestou hledat slabiny a nedostatky svých produktů a také školit ty, kteří s nimi budou pracovat.

Lze si představit jakýsi reverzní Turingův test, ve kterém bude soudce předmětem hodnocení; dokud nezjistí slabost, porušení hranic, mezery v systému, neobdrží licenci. Takový soudce bude vyžadovat seriózní školení k získání certifikace. Nutkání přisoudit objektu lidskou schopnost myslet, jak to obvykle děláme při setkání s inteligentním agentem, je velmi, velmi silné.

Ve skutečnosti je schopnost odolat touze vidět něco humanizovaného je divná věc. Mnoho lidí by považovalo pěstování takového talentu za pochybné, protože i ti pragmatičtí uživatelé systému jsou občas „přátelští“ke svým nástrojům.

Bez ohledu na to, jak pečlivě se designéři umělé inteligence rozhodnou eliminovat falešné „lidské“podtexty ve svých produktech, měli bychom očekávat vzkvétání štítků, zástupných řešení a tolerovatelné zkreslení skutečného „porozumění“systémů i jejich operátorů. Stejně jako reklamy na drogy s dlouhým seznamem vedlejších účinků v televizi nebo na alkohol s velkým množstvím drobného tisku se všemi varováními vyžadovanými zákonem, tak vývojáři umělé inteligence budou dodržovat zákon, ale budou ve varování upozorněni.

Proč potřebujeme umělou inteligenci?

Nepotřebujeme umělé vědomé látky. Existuje celá řada přírodních vědomých agentů, kteří jsou dostačující k plnění úkolů pro profesionály a privilegované jedince. Potřebujeme chytré nástroje. Nástroje nemají žádná práva a neměly by mít pocity, které by mohly být zraněny nebo zneužity.

Jedním z důvodů, proč nečinit umělé vědomé agenty, je to, že ačkoli se mohou stát autonomními (a v zásadě mohou být stejně autonomní, sebezdokonalující se nebo se vytvářet jako jakákoli osoba), neměli by - bez zvláštního povolení - sdílet s našimi přírodních vědomých agentů, naší zranitelnosti nebo naší úmrtnosti.

Daniel Dennett, profesor filozofie na Tuftsově univerzitě, jednou vyzval studenty na seminář o umělých agentech a autonomii: Dejte mi specifikace robota, který může s vámi podepsat smlouvu - nikoli náhradní vlastník jiné osoby, ale sám. Nejde o pochopení důvodů nebo manipulaci s perem na papíře, ale spíše o vlastnictví a zasloužené vlastnictví právního postavení a morální odpovědnosti. Malé děti nemohou takové smlouvy podepsat, stejně jako lidé se zdravotním postižením, jejichž právní postavení jim ukládá povinnost opatrovnictví a ukládají odpovědnost opatrovníkům.

Problém s roboty, kteří by mohli chtít dosáhnout takového vznešeného stavu, spočívá v tom, že stejně jako Superman jsou příliš zranitelní na to, aby vznesli takové nároky. Pokud odmítnou, co se stane? Jaký bude trest za porušení slibu? Budou zavřeni v kleci nebo rozebráni? Věznice za umělou inteligenci nebude nepohodlná, dokud si nejprve nenajdeme žízeň po svobodě, kterou nemůže sama AI ignorovat nebo deaktivovat. Rozebrání AI nezabije informace uložené na jeho disku a v softwaru.

Snadnost digitálního záznamu a přenosu dat - průlom, který umožnil softwaru a datům dosáhnout ve skutečnosti nesmrtelnosti - činí roboty nezranitelnými. Pokud se to nezdá zřejmé, přemýšlejte o tom, jak by se morálka lidí změnila, kdybychom mohli lidi každý týden zálohovat. Skočení z mostu bez gumičky v neděli po záloze v pátek může být unáhlené rozhodnutí, později si můžete prohlédnout záběry své předčasné smrti.

Proto nevytváříme vědomé - chtěli bychom - vytvářet humanoidní agenty, ale spíše zcela nový typ stvoření, někteří věštci, v bezvědomí, bez strachu ze smrti, bez rozptylování láskou a nenávistí, bez osobnosti: zrcadla pravdy, která bude téměř jistě infikována člověkem lži.

Lidské využívání lidských bytostí se brzy - znovu - navždy změní, ale pokud vezmeme odpovědnost za naši evoluční trajektorii, můžeme se vyhnout zbytečným nebezpečím.

Ilya Khel