Umělá Inteligence Se Naučila Vidět Síťové Trolly - Alternativní Pohled

Umělá Inteligence Se Naučila Vidět Síťové Trolly - Alternativní Pohled
Umělá Inteligence Se Naučila Vidět Síťové Trolly - Alternativní Pohled

Video: Umělá Inteligence Se Naučila Vidět Síťové Trolly - Alternativní Pohled

Video: Umělá Inteligence Se Naučila Vidět Síťové Trolly - Alternativní Pohled
Video: Václav Havel European Dialogues 2020: Do free media equal free society? 2024, Smět
Anonim

Umělá inteligence četla agresivní komentáře uživatelů Reddit a chápala, jak lidé, kteří nenávidí ostatní, mluví. Je obtížnější ho oklamat než běžného moderátora botů.

Na internetu obývají tlustí a hubení trollové a jen hrubí lidé, kteří za slova nepřijdou do kapes. Ruční moderování internetu je těžká a nevděčná práce. Boti naprogramovaní na vyhledávání slov z „zakázaného seznamu“se chovají lépe, ale nemohou vědět, kdy je žíravý komentář s kódovými slovy neškodný vtip a kdy je to zlý slovní útok.

Vědci v Kanadě učili umělou inteligenci rozlišovat hrubé vtipy od škodlivých vtipů a to, co sociologové nazývají „nenávistnými výroky“.

Dana Wormsley, jedna z tvůrců umělé inteligence, poznamenává, že „nenávistné projevy“je obtížné formalizovat. Formálně urážlivá slova lze skutečně použít jak s ironií, tak v jejich mírnějších významech; pouze některé texty obsahující taková slova vážně podněcují a ponižují. Nebudeme dávat příklady, protože vládní organizace, které regulují internet v Rusku, ještě nemají umělou inteligenci).

Neuronová síť byla trénována na vzorcích prohlášení členů komunity známých pro jejich nepřátelství vůči různým skupinám populace. Neuronová síť se poučila z příspěvků na webu Reddit - platformě, kde najdete celou řadu zájmových skupin, od aktivistů za občanská práva až po radikální misogynisty. Texty, které byly do systému nahrány, nejčastěji urážely Afroameričany, lidi s nadváhou a ženy.

Neuronová síť takto trénovaná dala méně falešných pozitiv než programů, které určují „nenávistné projevy“podle klíčových slov. Systém zachytil rasismus, kde nebyla žádná indikační slova. Ale i přes dobrý výkon si tvůrci moderátora AI nejsou jisti, že jejich vývoj bude široce využíván. Doposud úspěšně našla nenávistné projevy na Redditu, ale to, zda bude schopna udělat totéž na Facebooku a na dalších platformách, není známo. Systém je navíc nedokonalý, občas chybí mnoho zjevně hrubých rasistických výroků, které by vyhledávači klíčových slov nechybělo. Jediný, kdo dokáže urazit urážku od nevinného vtipu, zatímco osoba zůstává.