Umělá Inteligence: Nebezpečný Nepřítel Nebo Laskavý Pomocník - Alternativní Pohled

Umělá Inteligence: Nebezpečný Nepřítel Nebo Laskavý Pomocník - Alternativní Pohled
Umělá Inteligence: Nebezpečný Nepřítel Nebo Laskavý Pomocník - Alternativní Pohled

Video: Umělá Inteligence: Nebezpečný Nepřítel Nebo Laskavý Pomocník - Alternativní Pohled

Video: Umělá Inteligence: Nebezpečný Nepřítel Nebo Laskavý Pomocník - Alternativní Pohled
Video: JE UMĚLÁ INTELIGENCE NEBEZPEČNÁ? 2024, Smět
Anonim

Použití umělé inteligence v každodenním životě rychle nabývá na síle, ale tento trend stále více vyvolává obavy odborníků. Zaměstnanci NYU připravili varovnou poznámku o rizicích používání I. I. Z velké části se autoři zaměřili na etické a sociální otázky, jakož i na nedostatek regulace. Zpráva skupiny AI Now říká málo nové, ale ve světové praxi se stále více zvyšuje otázka potřeby omezit práci umělého myšlení.

Téměř všichni vizionáři technologického pokroku hovořili o potenciálních hrozbách pro AI. Stephen Hawking v listopadu loňského roku vyjádřil hlavní obavy, které doprovázely úvahy o vývoji technologie. Podle jeho názoru se počítače dříve nebo později naučí reprodukovat samy. Biologická stvoření pravděpodobně ztratí křemíkovou inteligenci jak v mentálních schopnostech, tak iz hlediska přizpůsobivosti prostředí, zejména na jiné planetě. Dříve či později budou inteligentní roboti považovat lidi za zastaralou formu a chtějí se jich zbavit.

Hawkingova slova stále znějí jako hororový příběh, hraná několikrát ve filmech a knihách, ale i ti, kdo pracují na implementaci inteligentních systémů, se s AI stále více obávají budoucnosti, i když existují i ti, kteří takové obavy považují za předčasné. "Obavy z vývoje umělé inteligence jsou dnes jako obavy z přelidnění Marsu," řekl Andrew Ng, vedoucí společnosti Google Brain. Každého však nezjistil.

Image
Image

Mezi největší fobie spojené se zavedením počítače do všech sfér života stojí za zmínku tři. Zaprvé, počítačová mysl bude použita jako válečná zbraň, která výrazně předčí dokonce i jaderné zbraně v destruktivní moci. Druhým je, že AI bude zotročovat lidi. Zatřetí, jako každé lidské stvoření, je počítač náchylný k chybám. O všech třech bodech lze diskutovat podrobněji.

Dne 21. srpna 2017 zaslali přední odborníci v oblasti výzkumu a implementace umělé inteligence, včetně vedoucích společností, jako jsou SpaceX a Deep Mind, otevřený dopis OSN. V textu varovali světové společenství před vývojem smrtelných autonomních zbraní, ať už jde o roboty nebo jiné mechanismy určené k zabití nepřítele. Autoři dokumentu upozornili na fatální důsledky používání těchto zbraní. S fenomenální účinností je spravedlivé ptát se, do kterých rukou spadne. Může být použit úzkým okruhem elit a teroristů.

Autoři dopisu vyzvali kontrolní organizaci a spolu s ní i vědeckou komunitu, aby nastínili rozsah škodlivého používání AI. Odpovědnost osob, které stojí za jeho vlastní stvoření, ho zavazuje vykonávat seriózní práci, aby se předešlo rizikům. Kromě zákonů musí jejich tvůrci také omezit sílu robotů, kteří budou muset v extrémních případech překonat, jak vypnout stroje.

Image
Image

Propagační video:

Politické zneužívání elektronických systémů již bylo prokázáno prací sociálních sítí a algoritmů analýzy dat. Na jaře letošního roku se ve světě ozval skandál s Cambridge Analytica. Jeho specialisté provedli hloubkovou analýzu uživatelských dat a umístili reklamy na Facebook, přizpůsobené individuálně pro každou osobu.

Zaměstnanci společnosti nejen překročili etický rámec, ale také aplikovali moderní technologie, jejichž práci nebylo možné analyzovat. Účinnost strojového učení je opakujícím se tématem mezi předními matematiky. Jednohlasně přiznávají, že jsou ohromeni mimořádným úspěchem počítačových programů, ale nejsou zcela schopni porozumět práci složitého systému. V Myanmaru v dubnu tohoto roku způsobily příspěvky na Facebooku také masové nepokoje, ale na rozdíl od Spojených států, kde byly protesty provedeny, v asijském státě došlo k masakru, který zabil několik stovek lidí. Manipulace s velkým počtem lidí je skutečností a roboti zde mohou s námi hrát krutý vtip.

Image
Image

Stojí za to si pamatovat stejný Facebook, kde byly spuštěny chatové hry založené na AI. Virtuální asistenti byli vyškoleni k vedení dialogu s účastníkem. Postupem času se roboti nerozeznali od skutečných lidí a autoři se rozhodli roboty spojit. Postupem času začali roboty zkracovat lexikální struktury a vyměňovat si bláboly. Média nafoukla senzaci ze zpráv, říkají „stroje se vzbouřily“. Ale s výjimkou nadsázky novinářů je spravedlivé připustit, že v případě, kdy stroje začnou spolu komunikovat, si to člověk nemusí všimnout. A jak tam budou žít svůj vlastní život - nikdo neví.

Stále složitější struktura počítačové mysli nás každý den odstraňuje od pochopení principů její práce. Ale zatímco většina algoritmů vykonává svou práci, i dnes složité stroje nejsou ani zdaleka ideální a dělají chyby. Pro další rozvoj umělé inteligence je důležité pochopit ne tolik jejích silných stránek, jako jsou její zranitelnosti. Právě na to je zaměřeno velké množství vědeckých skupin, v jedné z nich je specialista z MIT Anish atali. Před několika dny řekl reportérům o nejčastějších chybách v systémech rozpoznávání obrazu.

Jeho kolegové demonstrovali objekty na stroji a zjistili, že často jednotlivé objekty byly elektronickým viděním vnímány nesprávně. Počítač mohl nazvat baseball šálkem kávy a želvou potištěnou 3D armádou. Skupina již shromáždila asi 200 položek, které jsou zavádějícími algoritmy.

Image
Image

Umělá inteligence, namísto vnímání objektu jako celku, se soustředila na jeho jednotlivé parametry. AI má tendenci se poučit z „dokonalého“vzorku. Když čelí neshodným jevům, nemůže vždy opustit obvyklý proces zpracování. Namísto přiznání k jeho neschopnosti zpracovat obraz, se i nadále snaží číst obrázek, což vede k občas vtipným výsledkům. Místo tvaru želvy se elektronický mozek pokusil přečíst jeho texturu podobnou kamufláži. Z přibližně stejného důvodu nejsou autopiloty e-automobilů ještě stoprocentně spolehlivé. Pro auto je obtížné vidět siluetu a předpokládat, že se skládá ze samostatných prvků.

A pokud budou v nadcházejících letech některé nedostatky odstraněny, neexistuje žádná záruka, že hackeři tuto chybu zabezpečení nevyužijí. Hackeři elektronických zařízení dnes představují téměř hlavní příčinu strachu. Malý tým programátorů může nejen získat přístup k osobním informacím, ale také překonfigurovat autonomní systémy a převzít kontrolu nad nástroji kolosální energie. A pak budeme mít všichni potíže. Ale hlavní závěr, který lze vyvodit, je možná ten tradiční - neměli byste se bát automobilů, ale lidí.

Alexander Lavrenov