Vědci Přestali Chápat, Jak Funguje Umělá Inteligence - Alternativní Pohled

Vědci Přestali Chápat, Jak Funguje Umělá Inteligence - Alternativní Pohled
Vědci Přestali Chápat, Jak Funguje Umělá Inteligence - Alternativní Pohled

Video: Vědci Přestali Chápat, Jak Funguje Umělá Inteligence - Alternativní Pohled

Video: Vědci Přestali Chápat, Jak Funguje Umělá Inteligence - Alternativní Pohled
Video: Orba s VARI 2020 2024, Smět
Anonim

Vědci a programátoři přestali rozumět tomu, jak umělá inteligence přijímá rozhodnutí. Tento problém oznámil několik odborníků na hlavní konferenci AI - Neural Information Processing Systems - konané v Long Beach v Kalifornii.

Odborníci dotazovaní Quartzem tvrdí, že musí jednat dříve, než bude systém příliš složitý.

"Nechceme přijímat rozhodnutí AI jako samozřejmost, aniž bychom pochopili jejich logiku," říká Jason Yosinski z Uber. "Aby společnost akceptovala modely strojového učení, musíme vědět, jak AI dospěje k určitým závěrům."

Problém, který mnozí odborníci nazývají „černou skříňkou“, je opravdu vážný. Předchozí zkušenost ukázala, že umělá inteligence má tendenci přijímat neobjektivní rozhodnutí a kreslit analogie tam, kde by neměla. Vzhledem k tomu, že neuronové sítě dnes postupně pronikají do oblasti vymáhání práva, zdravotnického systému, vědeckého výzkumu a algoritmů, které určují, co vidíte na svém zpravodajském kanálu na Facebooku, může být chyba AI velmi nákladná.

Jako příklad uvádí Kiri Wagstaff, odborník na umělé inteligence ve společnosti Jet Propolusion Lab (NASA), misi na Mars. Zařízení jsou umístěna 200 milionů mil od Země a stojí stovky milionů dolarů, takže jakékoli chyby v práci AI jsou prostě nepřijatelné.

"Lidé potřebují vědět, co AI dělá a proč." Jak by mu jinak mohli věřit, že ovládá drahé vybavení? “Říká Wagstaff.

V současné době vědec pracuje na algoritmu, který třídí snímky pořízené různými kosmickými loděmi NASA. Protože počet obrázků je v milionech, počítač vám umožňuje třídit a zvýrazňovat ty nejzajímavější, aniž byste na tento proces strávili obrovské množství času. Problém však spočívá v tom, že často pouze AI ví, proč jsou určité obrázky, které vybírá, neobvyklé.

Uzavírá tedy Wagstaff, pokud uvnitř tohoto algoritmu dojde k chybě, jednoho dne může chybět velmi důležité informace.

Propagační video:

"V podstatě vám počítač poskytne obrázek a řekne:" Podívejte, to je zajímavé. " Ale nemůžete vždy pochopit, proč je to zajímavé: kvůli barvě, tvaru objektů nebo jejich umístění v prostoru - pravděpodobně to nevíte, “říká vědec.

Hannah Wallach, vedoucí výzkumná pracovnice společnosti Microsoft, souhlasí se závěry svých kolegů.

„S tím, jak se strojové učení rozšiřuje a sázky rostou, již nemůžeme tyto systémy považovat za černé skříňky. Musíme pochopit, co se v nich děje a co dělají, “řekl výzkumník.

Vědci se naštěstí snaží najít metody, jak porozumět logice umělé inteligence. Výzkumník Google Mitra Raghu tedy předložil zprávu, která popisuje proces sledování činnosti jednotlivých „neuronů“neuronové sítě. Při analýze milionů operací dokázala zjistit, který z umělých „neuronů“se zaměřil na mylné představy, a vypnout je. To dokazuje, že převedení práce neuronových sítí do formy přístupné lidskému porozumění není takový nemožný úkol.

Další možností řešení problému je pravidelné testování dovedností vyvinutých umělou inteligencí.

"Je to jako učitelé škol, kteří žádají děti, aby podle vlastních slov přeškolili, co rozuměli z vysvětlení učitele," říká Wagstaff.

Jak již bylo řečeno, důležitost porozumění vnitřním vlastnostem algoritmu není pouze zabránit tomu, aby hypotetický rover padl z marťanské skály; Když si uvědomíte, co je chyba, můžete stávající systémy ještě vylepšit.

"Pokud váš systém nefunguje a vy nevíte proč, pak je velmi obtížné s tím něco udělat," říká Yosinski. "Pokud víte, co se stalo, pak lze situaci vždy napravit."

Použité materiály z webu hightech.fm