Jaká Nebezpečí Nervových Sítí Podceňujeme? - Alternativní Pohled

Obsah:

Jaká Nebezpečí Nervových Sítí Podceňujeme? - Alternativní Pohled
Jaká Nebezpečí Nervových Sítí Podceňujeme? - Alternativní Pohled

Video: Jaká Nebezpečí Nervových Sítí Podceňujeme? - Alternativní Pohled

Video: Jaká Nebezpečí Nervových Sítí Podceňujeme? - Alternativní Pohled
Video: Jak (ne)funguje náš mozek 2024, Smět
Anonim

Už jste někdy potkali člověka na ulici, který by byl jako jeden na druhého? Oblečení, obličej, chůze, způsob komunikace, návyky jsou zcela stejné jako u vás. Je to jako skenování a tisk na tiskárně. Zní to trochu strašidelně, že? Nyní si představte, že jste viděli video, ve kterém takový člověk něco o sobě vypráví. V nejlepším případě se budete snažit vzpomenout, když jste šli takovým způsobem, že jste si nevzpomněli nic, ale mohli byste to říci na kameru. I když to všechno zní jako jednoduché uvažování, ale technologie je již velmi blízko k vytváření takových lidí. Už existují, ale brzy jich bude mnohem víc.

Odkud pochází falešný?

Nyní již existuje příliš mnoho věcí, které se běžně nazývají padělky. Jsou všude. Najdete je na fotografiích, ve zprávách, ve výrobě zboží a v informačních službách. Je snadnější říci, kde toto slovo není spojeno s jevy. I když s nimi můžete bojovat. Můžete studovat původ fotografie, zkontrolovat charakteristické rysy značkového produktu z falešné zprávy a znovu zkontrolovat novinky. Přestože jsou zprávy samostatným tématem.

V dnešní době spotřebitel obsahu nechce čekat a vyžaduje okamžitou produkci od jeho tvůrce, někdy se ani nestará o kvalitu, hlavní věc je rychle. Tady nastávají situace, kdy někdo něco řekl, a ostatní to bez kontroly zkontrolovali a vzali ze svých webových stránek a novin. V některých případech to trvá dlouho, než se tento míč otočí zpět a prokáže, že to bylo všechno špatně.

Není důvod vysvětlovat, proč se to všechno dělá. Na jedné straně jsou lidé, kteří se jen chtějí té situaci smát, na druhé straně ti, kteří opravdu nevěděli, že se mýlí. Samostatné místo, přibližně uprostřed, je obsazeno těmi, pro něž je velmi výhodné těžit. Mohou to být zájmy vlivu na různých úrovních, včetně politické. Toto je někdy účelem zisku. Například výsev paniky na akciovém trhu a provádění výnosných transakcí s cennými papíry. Často je to však kvůli nepřátelství vůči člověku (společnosti, produktu atd.), Aby ho potlačilo. Jednoduchým příkladem je „upuštění“do hodnocení filmu nebo instituce, které není pro někoho žádoucí. To samozřejmě vyžaduje armádu těch, kteří půjdou a nelíbí (někdy i roboti), ale to je jiný příběh.

Co je hluboké učení?

Propagační video:

V poslední době tento termín zní stále častěji. Někdy není ani spřízněn s případem a je zaměňován s něčím jiným. Takže softwarový produkt vypadá působivěji.

Nemyslete si, že koncept a základní principy strojového učení se objevily teprve před několika lety. Ve skutečnosti jsou tak mnoho let, že mnozí z nás se tehdy ani nenarodili. Základní principy systémů hlubokého učení a matematické modely jejich práce byly známy již v 80. letech minulého století.

V té době nedali tolik smyslů kvůli nedostatku jedné důležité složky. Byl to vysoký výpočetní výkon. Teprve v polovině dvacátých let se objevily systémy, které mohou pomoci v tomto směru a umožnit výpočet všech nezbytných informací. Nyní se stroje vyvinuly ještě více a některé systémy strojového vidění, vnímání hlasu a jiné fungují tak efektivně, že někdy překonávají schopnosti člověka. Přestože ještě nejsou „uvězněni“zodpovědnými směry, dělají z nich dodatek k lidským schopnostem a zároveň si nad nimi udržují kontrolu.

Image
Image

Co je to Deepfake? Kdy se objevil Deepfake?

Je snadné uhodnout, že Deepfake je malá hra se slovy spojenými s Deep Learning a samotnými padělky, o kterých jsem mluvil výše. To znamená, že Deepfake by měl falešný na novou úroveň a vyložit osobu v tomto obtížném podnikání, což jim umožní vytvářet falešný obsah bez plýtvání energií.

Za prvé, takové padělky se týkají videa. To znamená, že kdokoli může sedět před kamerou, říkat něco, a jeho tvář bude nahrazena jinou osobou. Vypadá to strašidelně, protože ve skutečnosti stačí zachytit základní pohyby osoby a jednoduše nebude možné rozlišit falešné. Uvidíme, jak to všechno začalo.

První generativní kontradiktorní síť vytvořil student na Stanfordské univerzitě. Stalo se to v roce 2014 a jméno studenta bylo Ian Goodfellow. Ve skutečnosti postavil proti sobě dvě neuronové sítě, z nichž jedna se zabývala vytvářením lidských tváří, a druhá je analyzovala a mluvila podobně nebo ne. Takže se navzájem trénovali a jednoho dne se druhá neuronová síť začala zmatovat a generovat obrázky reálně. Je to stále složitější systém, který rodí Deepfake.

Nyní je jedním z hlavních propagátorů myšlenky Deepfake Hao Li. Nielen to, ale také mnoho dalších. Za to byl opakovaně oceněn různými cenami, včetně neoficiálních. Mimochodem, je to jeden z těch, kterým by se mělo poděkovat za vzhled animoji v iPhone X. V případě zájmu se můžete podrobněji seznámit na jeho webových stránkách. Dnes není hlavním tématem diskuse.

Vzpomněli jsme si na něj pouze proto, že předvedl svou žádost na Světovém ekonomickém fóru v Davosu, což vám umožní nahradit tvář osoby sedící před kamerou jinou tváří. Zejména ukázal, jak systém funguje na příkladu tváří Leonarda DiCaprio, Wille Smithe a dalších slavných lidí.

Vypadá to trochu strašidelně. Na jedné straně můžete obdivovat pouze moderní technologie, které vám umožní naskenovat obličej, změnit jej na jiný a vytvořit nový obrázek. To vše trvá zlomek vteřiny a systém se ani nezpomalí. To znamená, že umožňuje nejen zpracovat hotové video a nahradit obličej, ale také se účastnit takové postavy v nějaké živé video komunikaci.

Nebezpečí Deepfake. Jak změním obličej na videu?

Můžete mluvit, jak se vám líbí, že tato technologie je potřebná, je velmi cool a nemusíte se pomlouvat. Můžete dokonce jít do extrému a začít říkat, že toto je pozice divokého starce, který se prostě bojí všeho nového, ale ve skutečnosti existuje více nebezpečí než výhod.

S takovou technologií, zejména pokud jde o open source, bude kdokoli schopen surfovat a nahrávat jakékoli video. Není to špatné, pokud hanobí něčí čest a důstojnost, mnohem horší je, když se jedná o prohlášení učiněné jménem důležité osoby. Například nahráním videa trvajícího pouze 30–40 sekund jménem Tim Cooka můžete snížit téměř celou americkou IT sféru vedenou společností Apple. Akciový trh bude zasažen tak tvrdě, že zasadí paniku mezi investory. V důsledku toho ztratí tisíce lidí miliardy dolarů.

Každý, kdo nemá rád tento způsob vydělávání peněz, řekne, že to je to, co potřebuje, nechte je jít do závodu. Ale podle nejsmutnějšího scénáře po tom nebude žádná rostlina. Kromě toho je drsné, že dostáváme osobu, která podvádí kolísání hodnoty cenných papírů. Stačí je jen koupit a prodat včas.

Situace by mohla být ještě horší, pokud by „žolík“hovořil jménem vůdce velkého státu. Samozřejmě pak bude vše odhaleno, ale během této doby můžete dělat spoustu nepříjemných věcí. Na tomto pozadí by jednoduše nahrazení tváře celebrity hercem v dospělém filmu bylo nevinným žertem.

U takových technologií je hlavní věcí skenování a pak je to otázka technologie. V pravém slova smyslu
U takových technologií je hlavní věcí skenování a pak je to otázka technologie. V pravém slova smyslu

U takových technologií je hlavní věcí skenování a pak je to otázka technologie. V pravém slova smyslu.

Můžete si představit opačnou situaci, když skutečný člověk něco řekne, a poté ujistí každého, že byl zarámován. Jak být v této situaci také není příliš jasné. To způsobí zmatek ve zpravodajských zdrojích, že to prostě není možné znovu zkontrolovat v jiném zdroji. V důsledku toho bude obecně nejasné, co je pravda a co je v tomto světě falešné. Z filmů se vynořuje obrázek o ponuré budoucnosti, jako jsou Surrogates nebo Terminator, kde se T-1000 představil jako ostatní lidé a mimo jiné nazýval jménem John Conor jménem své adoptivní matky.

Teď ani nemluvím o dalším zneužití, které umožní shromažďování falešných důkazů. Na tomto pozadí je veškerá zábava z hračky příliš pochybná.

Jak detekovat Deepfake?

Problémem není ani to, že by takové systémy měly být zakázány, ale že to již není možné. Jsou již tam a vývoj technologií, včetně čtení tváří, vedl k jejich vzhledu a šíření otevřeného zdroje. I když si představujeme, že systém v jeho současné podobě přestane existovat, musíme pochopit, že bude vytvořen znovu. Budou znovu učit neuronové sítě, aby spolupracovaly a to je vše.

Zatím není všechno tak děsivé a pouhým okem můžete doslova identifikovat faleš. Obrázek je podobný, ale poněkud drsný. Kromě toho má někdy problémy se smícháním, zejména kolem okrajů obličeje. Nic ale nezůstane v klidu a není vůbec obtížné jej dále rozvíjet. Stejný Hao Li si je jistý, že to nebude trvat déle než několik měsíců, a vytvoření „masek“, které ani počítač nedokáže rozlišit, bude trvat několik dalších let. Poté už nebude možné se vrátit.

Na jedné straně proti tomu mohou chránit algoritmy, které již YouTube a Facebook vytvářejí. Mimochodem, posledně jmenovaný dokonce otevřel soutěž o vývoj technologie rozpoznávání - Deepfake Detection Challenge („Úloha odhalování hlubokých padělků“). Výherní fond pro tuto soutěž je 10 milionů dolarů. Soutěž již probíhá a bude ukončena v březnu 2020. Stále můžete mít čas zúčastnit se.

Výměna obličeje ve videu již není problém
Výměna obličeje ve videu již není problém

Výměna obličeje ve videu již není problém.

Možná je tato štědrost způsobena falešným videem se samotným Markem Zuckerbergem. Pokud tyto dvě věci souvisejí, vznik takové soutěže není překvapující.

Pokud vyměněná tvář zcela odpovídá původnímu, protistrana představovaná speciální neuronovou sítí bude bezmocná. V tomto případě bude muset zachytit minimální rozdíly ve výrazech obličeje, pohybech a způsobu mluvení. V případě slavných lidí bude takový problém vyřešen na úrovni video služby, protože stejné YouTube ví, jak se pohybuje konvenční Donald Trump. Pokud jde o méně známou osobu, je to složitější. To však lze také dokázat umístěním před kameru a příležitostným rozhovorem, zatímco neuronová síť analyzuje jeho pohyby. Ukázalo se, že to bude něco jako studium otisku prstu, ale jak vidíme, opět to povede ke zbytečným obtížím.

Šití video autentifikačních systémů do kamer lze také obejít. Můžete udělat, aby fotoaparát označil zachycené video a aby bylo jasné, že nebylo natočeno samostatnou aplikací nebo zpracováno ve zvláštním programu. Ale co videa, která byla právě zpracována? Například upravený rozhovor. Výsledkem bude video, ve kterém původní klíč již nebude.

Na konci pár memů
Na konci pár memů

Na konci pár memů.

Můžeme říci, že jsme nyní načrtli jeden ze scénářů temné budoucnosti? Obecně ano. Pokud se technologie, které byly vytvořeny k dosažení dobrých cílů, vymknou kontrole, mohou se napít s žalu. Ve skutečnosti existuje mnoho možností pro takové nebezpečné technologie, ale většina z nich je chráněna. Například jaderná fúze. Zde se zabýváme kódem, který může získat kdokoli.

Do komentářů napište, jak vidíte ochranu před paděláním, vzhledem k tomu, že maskovací systém dokázal vytvořit masky zcela identické s původními tvářemi. A protože jsou na videu, nemůžete na ně ani použít rozpoznávání hloubky a hlasitosti. Předpokládejme také, že jakýkoli kód a klíč vložený do obrázku může být hacknut. Jak se říká, bylo by to za co. Teď můžeme diskutovat, všechny úvodní informace jsou k dispozici.

Artem Sutyagin