Google Nechce Jednou Vytvořit Skynet, Takže Vytváří Přepínač Pro AI - Alternativní Pohled

Google Nechce Jednou Vytvořit Skynet, Takže Vytváří Přepínač Pro AI - Alternativní Pohled
Google Nechce Jednou Vytvořit Skynet, Takže Vytváří Přepínač Pro AI - Alternativní Pohled

Video: Google Nechce Jednou Vytvořit Skynet, Takže Vytváří Přepínač Pro AI - Alternativní Pohled

Video: Google Nechce Jednou Vytvořit Skynet, Takže Vytváří Přepínač Pro AI - Alternativní Pohled
Video: Znáte tuhle skrytou hru v Google aplikaci? 2024, Červenec
Anonim

Otázky a diskuse o budoucnosti umělé inteligence mají dvě hlavní protichůdné stránky. V jednom rohu jsou společnosti jako Google, Facebook, Amazon a Microsoft, které agresivně investují do technologie, aby byly inteligentní AI systémy, v jiných jsou skvělí myslitelé naší doby jako Elon Musk a Stephen Hawking, kteří věří že vývoj umělé inteligence je podobný „kouzlu démonů“.

Jedna z nejvyspělejších společností zabývajících se umělou inteligencí, DeepMind, která je ve vlastnictví společnosti Google, vytvořila bezpečnostní opatření pro případ, že člověk potřebuje „převzít kontrolu nad robotem, jehož selhání by mohlo vést k nenapravitelným důsledkům“. Můžeme předpokládat, že mluvíme o … "zabít všechny lidi." Ve skutečnosti ovšem přijaté opatření není náznakem možné apokalypsy, je to spíše o bezpečnostních opatřeních spojených s inteligentními roboty, které fungují a budou fungovat v budoucnu v různých továrnách a závodech.

Publikovaný dokument s recepty je společným dílem DeepMind a Oxfordského institutu pro budoucnost lidstva, který, jak název napovídá, se zabývá otázkami, které umožní tomuto lidstvu dostat se do budoucnosti. Zakladatel ústavu Nick Bostrom po celá desetiletí velmi živě hovořil o možných nebezpečích rozvoje umělé inteligence a napsal o tomto tématu více než jednu knihu, v níž diskutoval o důsledcích vytváření superinteligentních robotů.

Průvodce, o kterém dnes mluvíme, nazvaný „Bezpečně postižení agenti“, zkoumá, jak zakázat umělou inteligenci, pokud začne dělat věci, které lidský operátor nechce dělat. Práce se skládá z různých výpočtů a vzorců, kterým 99 procent z nás s největší pravděpodobností nebude rozumět. Jednoduše řečeno, hovoříme o „červeném tlačítku“, které může deaktivovat AI.

Můžete se smát a divit se, ale průkopníci robotiky a umělé inteligence sledují stejné sci-fi filmy, jaké děláme. Ty, ve kterých roboti kdysi přišli na to, jak ignorovat příkaz k vypnutí. Teď budeme na to připraveni. Zveřejněný dokument popisuje metody a řešení, aby se zajistilo, že se „trénovatelný agent“(čtení AI) nemůže naučit ignorovat nebo zabránit dopadu vnějšího prostředí nebo lidského operátora.

To se může zdát jako nadměrné, zvláště když si uvědomíte, že nejpokročilejší umělá inteligence je v současné době ve stolních hrách opravdu dobrá. Bostrom se však domnívá, že dříve, než začneme vytvářet umělou inteligenci na úrovni lidského mozku, je třeba přijmout vhodná opatření:

„Jakmile umělá inteligence dosáhne lidské úrovně, očekává se v mnoha oblastech prudký skok ve vývoji. Také brzy poté AI vytvoří nové AI. Stačí posoudit tyto vyhlídky a zároveň možná nebezpečí. Proto je lepší to přehánět, než nechat ujít. ““

NIKOLAY KHIZHNYAK

Propagační video:

Doporučená: