Lov Na Negativitu. Umělá Inteligence Bude Důvěryhodná Při Kontrole Sociálních Sítí - Alternativní Pohled

Lov Na Negativitu. Umělá Inteligence Bude Důvěryhodná Při Kontrole Sociálních Sítí - Alternativní Pohled
Lov Na Negativitu. Umělá Inteligence Bude Důvěryhodná Při Kontrole Sociálních Sítí - Alternativní Pohled

Video: Lov Na Negativitu. Umělá Inteligence Bude Důvěryhodná Při Kontrole Sociálních Sítí - Alternativní Pohled

Video: Lov Na Negativitu. Umělá Inteligence Bude Důvěryhodná Při Kontrole Sociálních Sítí - Alternativní Pohled
Video: Сознание и Личность. От заведомо мёртвого к вечно Живому 2024, Říjen
Anonim

Pokud nežijete na sociálních médiích, pak s největší pravděpodobností nežijete vůbec. Polovina světové populace vám může dát takovou zklamání. V každém případě, podle statistik, dnes jsou registrovány v sociálních sítích. V Rusku je počet sítí asi 30 milionů.

Psychologové již napsali svazky o závislosti na síti, což je ve srovnání s drogou. A autor termínu „virtuální realita“, jeden z jeho tvůrců, zástupce kybernetické elity Silicon Valley, Jaron Lanier, dokonce napsal knihu o tom, proč musíte běžet ze sociální sítě. Ačkoli se stala bestsellerem, tato volání pravděpodobně nepřesvědčí široké množství uživatelů. Počet obyvatel sociálních sítí dnes rychle roste. Podle odborníků se do poloviny století zapletou téměř celá populace planety. Pokud ovšem lidstvo samozřejmě nezmění názor.

A je tu něco na co myslet. V dnešních sítích existují kluby pro zájmy nejen filatelistů a divadelníků, ale i sebevraždy a narkomani, zde najdete pokyny pro začínající teroristy, spolupracovníky v boji proti současné vládě a mnohem více, upřímně řečeno, negativní. Například si můžete vzpomenout na sebevražednou vlnu, když v jedné populární online hře došlo k rozmachu, jehož konečným cílem je sebevražda. Uživatelé sociálních sítí (převážně dospívající) jsou kontaktováni „kurátorem“, který používá falešné účty, nelze je identifikovat. Nejprve vysvětlují pravidla: „nikomu o této hře neříkejte“, „vždy dokončujte úkoly, ať už jsou cokoli“, „za nesplnění úkolu jste vyloučeni ze hry navždy a budete čelit špatným následkům.

A politici již mluví o fenoménu sítí: svrhli vlády a dokonce zvolili prezidenty. Techniky jsou překvapivě jednoduché. Do sítě jsou vrhány padělky o určitých pobuřujících jednáních úřadů a jsou vedena volání do ulic, aby se vyjádřilo pobouření. Je známo mnoho příkladů, například v Egyptě, Jižním Súdánu, Myanmaru.

Jak chránit společnost před ničivým vlivem sociálních sítí? To platí zejména o mladší generaci, která tvoří drtivou většinu v sítích.

V zásadě to není pro specialisty, zejména psychology, problém. Ale objemy nejrůznějších informací, včetně negativních, v sítích jsou obrovské, dokonce i ti nejlepší profesionálové se nedokážou vyrovnat se svým „manuálním“zpracováním. To může udělat pouze technologie. A především umělá inteligence (AI), postavená na základě neuronových sítí, které napodobují strukturu a fungování mozku. Tým psychologů z Státní lékařské univerzity v St. Petersburgu pojmenovaný po I. I. Pavlov a specialisté v oblasti informačních technologií Petrohradského institutu informatiky a automatizace Ruské akademie věd.

"Mluvíme o identifikaci pomocí AI různých skupin lidí náchylných k destruktivnímu chování," řekl profesor Igor Kotenko, který vede tuto skupinu vědců, řekl korespondentovi RG. - Psychologové nám nabídli sedm možností pro takové chování, zejména jde o negativní postoj k životu, který může vést k sebevraždě, jedná se o sklon k agresi nebo protestům, jedná se o hrozby ve vztahu ke konkrétní osobě nebo skupině osob atd. Naším úkolem je vytvořit umělou inteligenci, která dokáže s těmito znaky pracovat, obrazně řečeno je „zatloukat“do umělé inteligence, aby mohla neustále analyzovat obrovské informace, které procházejí sítí, a zachytávat různé rušivé možnosti.

Na první pohled není úkol příliš obtížný. Koneckonců, jak říkají, každý obyvatel sociální sítě je v očích. Na jeho stránce vidíte, o co se zajímá, co si myslí, s kým komunikuje, jaké kroky podniká a co volá ostatním. Vše je na první pohled. Sledujte a jednejte. Ale pokud bylo všechno tak zřejmé … Skutečností je, že myšlenky a chování člověka ve většině případů zdaleka nejsou tak jednoduché a jednoznačné, jak by se mohlo zdát. Obecně je ďábel v detailech. A tam, kde je vše zřejmé odborníkovi, může se AI mýlit. Například kanadští vědci naučili umělou inteligenci rozlišovat mezi hrubým vtipem nebo „nenávistnou řečí“od pouze urážlivých. Ukázalo se, že systém je spíše nedokonalý, například vynechal mnoho zjevně rasistických výroků.

Propagační video:

Stručně řečeno, vše záleží na tom, jak se AI učí. A systém se učí příklady, stejně jako se dítě učí. Nakonec mu nevysvětlují, že kočka má takový knír, takové uši, ocas. Mnohokrát mu ukazují zvíře a říkají, že je to kočka. A pak sám tuto lekci mnohokrát opakoval a díval se na jinou kočku.

Neuronové sítě vytvořené vědci z Petrohradu budou studovat stejným způsobem. Budou jim představeny různé možnosti destruktivního chování lidí. Uchovává-li ve svých „mozcích“znamení vyvinuté psychology, AI si je zapamatuje, aby je pak zachytil v obrovských proudech informací na sociálních sítích. Profesor Kotenko zdůrazňuje, že úkolem AI je udělat pouze tip pro destruktivní a poslední slovo je pro odborníky. Pouze budou schopni říci, zda je situace skutečně alarmující a že je naléhavě nutné jednat nebo je alarm nesprávný.

Projekt podpořila Ruská nadace pro základní výzkum.

Jurij Medveděv