Jak Se Neuronové Sítě Naučily Falšovat Obrázek Zpráv - Alternativní Pohled

Obsah:

Jak Se Neuronové Sítě Naučily Falšovat Obrázek Zpráv - Alternativní Pohled
Jak Se Neuronové Sítě Naučily Falšovat Obrázek Zpráv - Alternativní Pohled

Video: Jak Se Neuronové Sítě Naučily Falšovat Obrázek Zpráv - Alternativní Pohled

Video: Jak Se Neuronové Sítě Naučily Falšovat Obrázek Zpráv - Alternativní Pohled
Video: 7. Rozpoznáváme vlastní obrázky pomocí předučené neuronové sítě 2024, Duben
Anonim

K vytvoření padělků se používají systémy a technologie umělé inteligence pro generování obrazových a zvukových podvodů.

Abychom vytvořili „individuální“zpravodajský obrázek pro kohokoli z nás a falšovali mediální zprávy, které jsou v něm vybrány, dnes stačí jeden programátor. Izvestia o tom řekli odborníci na umělou inteligenci a kybernetickou bezpečnost. Více nedávno, oni odhadovali, že toto vyžadovalo práci více týmů. Takové zrychlení bylo možné díky vývoji technologií pro útoky na neuronové sítě a generování zvukových a obrazových padělků pomocí programů pro vytváření „hlubokých padělků“. Noviny Izvestia nedávno prošly podobným útokem, když tři libyjské zpravodajské portály zveřejnily zprávu, která se údajně objevila v jednom z problémů. Podle odborníků lze do 3-5 let očekávat invazi robotických manipulátorů, která bude automaticky schopna vytvořit mnoho padělků.

Statečný nový svět

Existuje stále více projektů, které přizpůsobují informační obrázek vnímání konkrétních uživatelů. Příkladem jejich práce byla nedávná akce tří libyjských portálů, které zveřejňovaly zprávy údajně vytištěné v čísle Izvestia 20. listopadu. Tvůrci falešné upravili přední stranu novin a zveřejnili na něm zprávu o jednáních mezi polním maršálem Khalifou Haftarem a předsedou vlády národní dohody (PNS) Fayezem Sarrajem. K falešným písmům Izvestia byla připojena fotografie dvou vůdců pořízená v květnu 2017. Štítek s logem publikace byl vyříznut ze skutečného vydaného čísla 20. listopadu a všech ostatních textů na stránce od vydání 23. října.

Z pohledu odborníků lze v dohledné budoucnosti takové falšování provádět automaticky.

Image
Image

"Technologie umělé inteligence jsou nyní zcela otevřené a zařízení pro příjem a zpracování dat jsou miniaturizována a levnější," řekl Izvestia Yuri Vilsiter, doktor fyzikálních a matematických věd, profesor Ruské akademie věd, vedoucí oddělení FSUE "GosNIIAS". - Proto je vysoce pravděpodobné, že v blízké budoucnosti ani stát a velké korporace, ale jednoduše soukromé osoby, budou moci odposlouchávat a špehovat nás a manipulovat s realitou. V nadcházejících letech bude možné analýzou uživatelských preferencí ovlivnit jej prostřednictvím zpravodajských kanálů a velmi chytrých padělků.

Propagační video:

Podle Yuriho Vilsitera již existují technologie, které mohou být použity pro takový zásah do mentálního prostředí. Teoreticky lze očekávat invazi manipulačních robotů za několik let, řekl. Limitujícím momentem může být potřeba sbírat velké databáze příkladů reakcí skutečných lidí na umělé podněty se sledováním dlouhodobých následků. Takové sledování bude pravděpodobně vyžadovat několik dalších let výzkumu, než budou důsledně získány cílené útoky.

Vize útoku

Alexei Parfentiev, vedoucí analytického oddělení ve společnosti SearchInform, souhlasí s Yuri Vilsiterem. Podle něj odborníci již předpovídají útoky na neuronové sítě, i když nyní takové příklady prakticky neexistují.

- Vědci z Gartneru věří, že do roku 2022 bude 30% všech kybernetických útoků zaměřeno na zničení dat, na nichž trénuje neuronová síť, a na krádež hotových modelů strojového učení. Například bezobslužná vozidla pak mohou najednou začít zaměňovat chodce za jiné předměty. A nebudeme mluvit o finančním nebo reputačním riziku, ale o životě a zdraví obyčejných lidí, expert věří.

Útoky na systémy počítačového vidění se nyní provádějí jako součást výzkumu. Účelem takových útoků je donutit neuronovou síť, aby v obraze detekovala, co tam není. Nebo naopak nevidět, co bylo plánováno.

Image
Image

„Jedním z aktivně se rozvíjejících témat v oblasti školení neuronových sítí jsou tzv. Kontradiktorní útoky („ kontradiktorní útoky “- Izvestia),” vysvětlil Vladislav Tushkanov, webový analytik společnosti Kaspersky Lab. - Ve většině případů jsou zaměřeny na systémy počítačového vidění. K provedení takového útoku musíte mít ve většině případů plný přístup k neuronové síti (tzv. Útoky typu white-box) nebo k výsledkům její práce (útoky typu black-box). Neexistují žádné metody, které by mohly oklamat jakýkoli počítačový systém ve 100% případů. Kromě toho již byly vytvořeny nástroje, které vám umožňují testovat neuronové sítě na odolnost vůči útokům kontradiktorů a zvýšit jejich odolnost.

V průběhu takového útoku se útočník snaží nějakým způsobem změnit rozpoznaný obraz tak, aby neuronová síť nefungovala. Na fotografii je často položen šum, podobný tomu, který se vyskytuje při fotografování ve špatně osvětlené místnosti. Člověk si obvykle takové rušení nevšimne, ale neuronová síť začne selhat. Aby však mohl takový útok provést, potřebuje útočník přístup k algoritmu.

Podle Stanislava Ashmanov, generálního ředitele Neuroset Ashmanov, v současné době neexistuje žádný způsob řešení tohoto problému. Tato technologie je navíc k dispozici každému: průměrný programátor ji může použít stažením potřebného softwaru s otevřeným zdrojovým kódem ze služby Github.

Image
Image

- Útok na neuronovou síť je technika a algoritmy pro klamání neuronové sítě, které způsobují, že vytváří falešné výsledky, a ve skutečnosti je narušuje jako zámek dveří, - věří Ashmanov. - Například nyní je docela snadné přimět systém rozpoznávání tváře, aby si myslel, že to nejste vy, ale Arnold Schwarzenegger před ním - to se provádí smícháním přísad nepostřehnutelných pro lidské oko do dat vstupujících do neuronové sítě. Stejné útoky jsou možné i pro systémy rozpoznávání a analýzy řeči.

Odborník si je jist, že se to jen zhorší - tyto technologie šly k masám, podvodníci je již používají a neexistují žádné prostředky na jejich ochranu. Protože neexistuje automatická ochrana proti automatizovanému vytváření padělků videa a zvuku.

Hluboké padělky

Deepfake technologie založené na Deep Learning (technologie hlubokého učení neuronových sítí. - Izvestia) již představují skutečnou hrozbu. Video nebo audio padělky jsou vytvářeny úpravou nebo překrýváním tváří slavných lidí, kteří údajně vyslovují potřebný text a hrají nezbytnou roli v zápletce.

„Deepfake vám umožňuje nahradit pohyby rtů a lidskou řeč videem, což vytváří pocit realismu toho, co se děje,“říká Andrey Busargin, ředitel odboru pro inovativní ochranu značky a duševního vlastnictví ve skupině IB. - Falešné celebrity „nabízejí“uživatelům na sociálních sítích podílet se na losování hodnotných cen (smartphony, auta, peněžní částky) atd. Odkazy z těchto videí často vedou k podvodným a phishingovým webům, kde jsou uživatelé požádáni o zadání osobních údajů, včetně údajů o bankovní kartě. Takové programy představují hrozbu jak pro běžné uživatele, tak pro veřejnost, která jsou uvedena v reklamách. Díky tomuto druhu shenaniganů se obrázky celebrit spojují s podvody nebo reklamovaným zbožím.a to je místo, kde narazíme na osobní poškození značky, “říká.

Image
Image

Další hrozba je spojena s používáním „falešných hlasů“pro telefonní podvody. Například v Německu použili kybernetičtí zločinci hlasové deepfake k tomu, aby vedoucí dceřiné společnosti ve Spojeném království naléhavě převedl 220 000 EUR na účet maďarského dodavatele v telefonním rozhovoru a vystupoval jako manažer společnosti. Vedoucí britské firmy měl podezření na trik, když jeho „šéf“požádal o druhý peněžní příkaz, ale volání pocházelo z rakouského čísla. Do této doby byla první tranše již převedena na účet v Maďarsku, odkud byly peníze staženy do Mexika.

Ukázalo se, že současné technologie umožňují vytvářet individuální zpravodajský obrázek plný falešných zpráv. Navíc bude brzy možné rozlišit padělky od skutečného videa a zvuku pouze hardwarem. Podle odborníků je nepravděpodobné, že opatření zakazující rozvoj neuronových sítí budou účinná. Brzy tedy budeme žít ve světě, ve kterém bude nutné neustále kontrolovat vše.

"Musíme se na to připravit a musíme to přijmout," zdůraznil Yuri Vilsiter. - Lidstvo není první přechod z jedné reality do druhé. Náš svět, způsob života a hodnoty se radikálně liší od světa, ve kterém naši předkové žili před 60 000 lety, 5 000 lety, 2 000 lety a dokonce 200 až 100 lety. V blízké budoucnosti bude člověk z velké části zbaven soukromí, a proto je nucen nic skrýt a jednat čestně. Zároveň nelze v okolní realitě a ve vlastní osobnosti brát víru, všechno bude třeba zpochybňovat a neustále znovu kontrolovat. Bude však tato budoucí realita hrozná? Ne. Bude to prostě úplně jiné.

Anna Urmantseva