Roboti Vytvoří Nejpravděpodobnější Falešné Informace - Alternativní Pohled

Roboti Vytvoří Nejpravděpodobnější Falešné Informace - Alternativní Pohled
Roboti Vytvoří Nejpravděpodobnější Falešné Informace - Alternativní Pohled

Video: Roboti Vytvoří Nejpravděpodobnější Falešné Informace - Alternativní Pohled

Video: Roboti Vytvoří Nejpravděpodobnější Falešné Informace - Alternativní Pohled
Video: Япония построила 18-метрового робота 2024, Smět
Anonim

Představte si, že jednoho dne nějaký zázrak vymyslí technologii, která umožní lidem nebo hmotným předmětům procházet zdmi, a zveřejní na internetu pokyny, jak levně postavit takový zázračný stroj z běžně dostupných materiálů pro domácnost. Jak by se svět změnil?

Mnoho průmyslových odvětví se pravděpodobně stane výrazně produktivnějšími. Možnost procházet zdmi namísto použití dveří by lidem usnadnila pohyb po kancelářích, přemisťování zboží ve skladech a provádění nesčetných každodenních úkolů v domácnosti. Negativní důsledky by však mohly dobře převážit nad těmi pozitivními. Udržování cenností pod zámkem by ztratilo jakýkoli význam. Kdokoli mohl snadno vstoupit do skladu, dostat se do bankovního trezoru nebo domu.

Většina metod, které používáme k ochraně soukromého majetku, zahrnuje zdi tak či onak, takže všechny by byly přes noc k ničemu. Zloději by jednali beztrestně, dokud by společnost nepřišla s alternativními způsoby, jak těmto zločinům předcházet. Výsledkem takového vývoje událostí by mohl být hospodářský kolaps nebo sociální chaos.

Výše uvedené ilustruje obecnou zásadu: technologické inovace nejsou pro společnost vždy přinejmenším z krátkodobého hlediska prospěšné. Technologie jsou schopné vytvářet negativní externality, externality. Tento ekonomický výraz znamená újmu způsobenou třetím stranám nebo stranám. Pokud tyto negativní externality převáží užitečnost samotné technologie, vynález ve skutečnosti alespoň na chvíli zhorší, ne zlepší svět.

Strojové učení, zejména variace známá jako hluboké učení, je pravděpodobně nejteplejším technologickým průlomem na planetě. Umožňuje počítačům vykonávat mnoho úkolů, které dříve mohli dělat jen lidé: rozpoznávat obrázky, řídit auta, obchodovat na akciovém trhu atd. To u některých lidí vyvolalo strach, že díky strojovému učení mohou být lidé na pracovišti zbyteční a zbyteční. A to je skutečně možné, ale existuje mnohem vážnější nebezpečí ze strojového učení, kterému dosud nebyla věnována dostatečná pozornost. Jde o to, že pokud jsou stroje schopné se učit, pak se mohou naučit lhát.

Lidé dnes mohou falšovat obrázky, jako jsou fotografie, ale je to pracný a složitý proces. A padělání hlasu nebo obrazu je obecně nad možnosti běžného člověka. Ale brzy bude díky strojovému učení možné snadno vytvořit věrohodné falešné videozáznamy něčí tváře a vyvolat dojem, že daná osoba mluví svým vlastním hlasem. Již existuje technologie pro synchronizaci pohybů rtů, která dokáže člověku doslova vložit do úst jakákoli slova. To je jen špička ledovce. Dvanáctileté děti budou brzy schopny vytvářet fotorealistické a uvěřitelně znějící falešné obrazy politiků, vedoucích podniků, jejich příbuzných nebo přátel ve svých ložnicích ve svých ložnicích a říkat vše, co si dokážou představit.

To samo o sobě vyvolává určité zjevné zneužívání. Politické hoaxy, takzvané „falešné zprávy“nebo „informační náplň“, se budou šířit jako požáry. Samozřejmě bude podvod odhalen co nejdříve - žádná digitální technologie nemůže být tak dobrá, že jiná technologie nebude schopna detekovat falešné zprávy. To se ale stane až poté, co škodlivá myšlenka již pronikla do myslí lidí, kteří v ni věří. Představte si dokonale vymyšlené falešné video prezidentských kandidátů, kteří křičí rasové nadávky nebo se přiznávají k násilným trestným činům.

To je však jen začátek. Představte si potenciál manipulovat na akciovém trhu. Předpokládejme, že někdo obíhal falešné video, ve kterém generální ředitel společnosti Tesla Elon Musk připouští, že automobily Tesla nejsou bezpečné. Video bude online a akcie společnosti se zhroutí. Brzy po objevení falešného obrazu se jejich cena obnoví, během této doby však budou manipulátory schopni vydělat obrovské peníze a hrát na snížení akcií Tesly.

Propagační video:

A to není zdaleka nejextrémnější scénář. Představte si takového žolíka, který vytvoří realistické falešné video prezidenta Donalda Trumpa s uvedením, že bezprostředně hrozí stávka proti severokorejským cílům, a poté toto video zveřejní tam, kde to Severokorejci uvidí. Jaké jsou šance, že si severokorejské vedení uvědomí, že se jedná o padělek, než budou muset zahájit válku?

Ti, kteří mají tendenci považovat takové extrémní scénáře za poplašné, rozumně poukazují na to, že lze detekovat jakékoli falešné, protože k jejich detekci budou použity stejné technologie strojového učení jako při tvorbě. To ale neznamená, že nám nehrozí, že skončíme ve světě plném všudypřítomných padělků. Jakmile budou padělky dostatečně věrohodné, že je lidé sami nezjistí, navždy ztratíme důvěru v to, co vidíme a slyšíme. Místo toho, abychom důvěřovali svým vlastním smyslům, budeme nuceni spoléhat se na algoritmy používané k detekci padělků a autentizaci informací. V průběhu evoluce jsme se naučili důvěřovat svým vlastním pocitům,a přenos těchto funkcí do strojové inteligence může být pro většinu lidí příliš náhlý.

To by mohla být špatná zpráva pro ekonomiku. Obchodní a obchodní sítě jsou postaveny na důvěře a komunikaci. Pokud strojové učení jednoho dne vrhne do veřejné informační sféry nekonečnou bouři iluzí a padělků, zdi vytvořené evolucí k rozlišení reality od fikce se zhroutí. V takovém případě může úroveň důvěry ve společnost rychle klesnout, což se nezpomalí, aby negativně ovlivnilo globální blahobyt lidstva.

Z tohoto důvodu by vláda měla pravděpodobně podniknout určité kroky k zajištění přísného potrestání digitálního padělání. Bohužel je nepravděpodobné, že by současná administrativa udělala takový krok z lásky ke zprávám o úzkých stranách. A vlády jako Rusko budou pravděpodobně ještě méně nakloněny omezit tyto praktiky. Nakonec kombinace špatné správy věcí veřejných a výkonných nových technologií představuje pro lidskou společnost mnohem větší hrozbu než samotné technologie.

Autor: Noah Smith - redaktor Bloomberg News

Igor Abramov