Emoční Umělá Inteligence: Kdo A Proč Rozpoznává Emoce V Rusku A V Zahraničí - Alternativní Pohled

Obsah:

Emoční Umělá Inteligence: Kdo A Proč Rozpoznává Emoce V Rusku A V Zahraničí - Alternativní Pohled
Emoční Umělá Inteligence: Kdo A Proč Rozpoznává Emoce V Rusku A V Zahraničí - Alternativní Pohled

Video: Emoční Umělá Inteligence: Kdo A Proč Rozpoznává Emoce V Rusku A V Zahraničí - Alternativní Pohled

Video: Emoční Umělá Inteligence: Kdo A Proč Rozpoznává Emoce V Rusku A V Zahraničí - Alternativní Pohled
Video: Ako sa žije v Rusku a ruské mestá 2024, Smět
Anonim

Umělá inteligence se v Rusku a ve světě aktivně rozvíjí - včetně emocionální. Zajímá se o velké společnosti a ambiciózní startupy, které přinášejí nový vývoj v oblasti maloobchodu, marketingu, vzdělávání, bankovnictví a náboru. Podle Mordor Intelligence byl trh rozpoznávání emocí v roce 2018 oceněn na 12 miliard dolarů a do roku 2024 vzroste na 92 miliard dolarů.

Co je emoční AI

Emotion AI je umělá inteligence, která umožňuje počítači rozpoznávat, interpretovat a reagovat na lidské emoce. Kamera, mikrofon nebo nositelný senzor čte stav osoby a neuronová síť zpracovává data, aby určila emoce.

Existují dva hlavní způsoby, jak analyzovat emoce:

  1. Kontakt. Člověk je nasazen na zařízení, které čte jeho puls, elektrické impulzy těla a další fyziologické ukazatele. Tyto technologie mohou určovat nejen emoce, ale také úroveň stresu nebo pravděpodobnost epileptického záchvatu.
  2. Bezkontaktní. Emoce jsou analyzovány na základě video a zvukových záznamů. Počítač se učí výrazy obličeje, gesta, pohyby očí, hlas a řeč.

Aby vyškolili neuronovou síť, vědci sbírají vzorek dat a ručně označují změnu emočního stavu člověka. Program studuje vzorce a chápe, jaké znaky patří ke kterým emocím.

Neuronová síť může být trénována na různá data. Některé společnosti a laboratoře používají videokazety, jiné studují hlas a některé využívají více zdrojů. Ale čím rozmanitější data, tím přesnější výsledek.

Zvažte dva hlavní zdroje:

Propagační video:

Fotografie a fotografie z videa

Obrázky jsou nejprve zpracovány, aby se usnadnilo práci AI. Obličejové rysy - obočí, oči, rty atd. - jsou označeny tečkami. Neuronová síť určuje polohu bodů, porovnává je s příznaky emocí ze šablony a dochází k závěru, která emoce se odráží - hněv, strach, překvapení, smutek, radost nebo klid.

Existuje také jiný přístup. Na obličeji jsou okamžitě zaznamenány známky emocí - například úsměv nebo zamračené obočí. Poté neuronová síť vyhledá značky v obraze, analyzuje jejich kombinace a určí stav osoby.

Studium markerů emocí začalo ve 20. století. Je pravda, že byly posuzovány odděleně od neuronových sítí. Vědci Paul Ekman a Wallace Friesen vyvinuli systém kódování obličejové činnosti (FACS) v roce 1978. Rozkládá výrazy obličeje na jednotlivé pohyby svalů nebo akční jednotky. Výzkumník studuje motorické jednotky a porovnává je s emocemi.

Hlas a řeč

Neuronová síť extrahuje z akustického signálu mnoho parametrů hlasu - například tón a rytmus. Studuje jejich změnu v čase a určuje stav řečníka.

Někdy se pro výcvik používá spektrogram - obrázek, který ukazuje sílu a frekvenci signálu v průběhu času. Navíc AI analyzuje slovník pro přesnější výsledky.

Kde se technologie používá

Prodej a reklama

Nejviditelnější využití technologie rozpoznávání emocí je v marketingu. S jejich pomocí můžete určit, jak reklamní video ovlivňuje člověka. Chcete-li to provést, můžete například nainstalovat strukturu s kamerou, která změní reklamu v závislosti na náladě, pohlaví a věku projíždějících lidí.

Podobný design byl vyvinut startupy Cloverleaf a Affectiva. Zavedli elektronickou reklamu shelfpoint s názvem shelfPoint, která shromažďuje údaje o emocích nakupujících. Nové technologie byly testovány společností Procter & Gamble, Walmart a dalšími velkými společnostmi. Podle Cloverleaf vzrostly tržby o 10–40%, zatímco zapojení zákazníků se zvýšilo 3-5krát.

Neobvyklejší možností je robotický konzultant s umělou inteligencí. Bude komunikovat s klienty, číst jejich emoce a ovlivňovat je. A také vytvářejte přizpůsobené nabídky.

Image
Image

Servisní robot představil ruský startup Promobot. Využívá neuronovou síť vyvinutou společností Neurodata Lab, která určuje emoce z několika zdrojů najednou: nahrávky obličeje, hlasu, pohybů, stejně jako rychlosti dechu a pulsu.

Promobot aktivně prodává své roboty do zahraničí. V roce 2018 startup uvedl smlouvu s americkou společností Intellitronix za 56,7 milionu dolarů a v příštím roce se dohodly na dodávkách zařízení do Saúdské Arábie, Izraele, Kuvajtu a Švédska - pro ně společnost obdrží 1,1 milionu dolarů. Podle společnosti Promobot dnes pracuje 492 robotů ve 34 zemích po celém světě jako průvodci, conciergové, konzultanti a propagátoři.

Banky

Technologie rozpoznávání emocí pomáhají bankám získat zpětnou vazbu od zákazníků bez průzkumů a zlepšit služby. Videokamery jsou instalovány v odděleních a algoritmy pro nahrávání určují spokojenost návštěvníků. Neuronové sítě mohou také analyzovat hlas a řeč klienta a operátora během hovoru do kontaktního centra.

V Rusku se již dlouho snaží implementovat emoční inteligenci: byla testována na Sberbank v roce 2015 ao tři roky později Alfa-Bank zahájila pilotní program pro analýzu emocí z videa. Kromě záznamů z monitorovacích kamer se používají také záznamy hovorů. VTB zahájila pilotní projekt implementace emoční AI v roce 2019. A Rosbank spolu s laboratoří Neurodata již testovaly určování emocí zákazníků hlasem a řeči. Klient zavolal do banky a neuronová síť analyzovala jeho stav a význam rozhovoru. Kromě toho si AI všimla pauzy v řeči operátora, hlasitosti hlasu a době komunikace. To umožnilo nejen zkontrolovat spokojenost se službou, ale také sledovat práci operátorů kontaktního centra.

Nyní Rosbank implementovala své vlastní řešení pro rozpoznávání emocí. Místo akustického signálu systém analyzuje text, zatímco přesnost zůstává vysoká.

Technologické centrum řeči se také podílí na rozpoznávání emocí v řeči (Sberbank vlastní většinový podíl). Služba Smart Logger analyzuje hlas a slovní zásobu zákazníků a operátorů, dobu hovoru a pauzy, aby zjistila spokojenost se službou.

Zábavní sféra

K měření reakce publika na film lze použít systémy rozpoznávání emocí. Disney v roce 2017 ve spolupráci s vědci provedl experiment: nainstaloval kamery v kině a propojil algoritmy hlubokého učení k posouzení emocí diváků. Systém dokázal předpovědět reakce lidí tím, že je pozoroval jen pár minut. Během experimentu jsme shromáždili působivý datový soubor: 68 markerů od každého z 3 179 diváků. Celkem bylo získáno 16 milionů obličejových obrázků.

Za tímto účelem vytvořil hosting videa YouTube vlastní AI s názvem YouFirst. Umožňuje blogerům s videem a firmám testovat obsah před vydáním na platformu. Uživatelé kliknou na speciální odkaz, souhlasí se natočením videa a sledováním videa. V této době neuronová síť určí jejich reakce a pošle data vlastníkovi kanálu.

Mezi ruskými společnostmi mohou reakce na videa analyzovat například Neurobotici. Společnost vyvinula program EmoDetect, který rozpoznává radost, smutek, překvapení, strach, hněv, znechucení a neutralitu. Program studuje až 20 lokálních rysů obličeje ve zmrazených rámečcích a sérii obrázků. Systém analyzuje motorové jednotky a používá technologii kódování obličeje FACS. Je možné nahrávat video z webové kamery. Rozhraní EmoDetect vám umožňuje integrovat produkt s externími aplikacemi.

Emoční umělá inteligence se také začíná uplatňovat v herním průmyslu. Pomáhá přizpůsobit hru a přidat další interakci s hráčem.

Například americká emoční AI společnost Affectiva pomohla vytvořit psychologický thriller Nevermind. Napětí závisí na stavu hráče: spiknutí je tmavší, když je ve stresu, a naopak.

Image
Image

Vzdělávání

Uznávání emocí se vztahuje i na vzdělávání. Může být použit ke studiu nálady a pozornosti studentů během výuky.

Ruští vývojáři aplikovali emoční AI v Perm. Podnětem pro rozvoj technologie byly útoky studentů na žáky základních škol a učitele. Rostelecom a spuštění New Vision vyvinuli program Smart and Safe School pro sledování emočního stavu dětí. To pomůže identifikovat asociální adolescenty dříve, než dojde k tragédii.

Bylo založeno na systému Paula Ekmana. Neuronová síť analyzovala nejmenší svalové pohyby pomocí 150 bodů na obličeji. Během hodiny bylo shromážděno velké množství dat: 5–6 tisíc snímků pro každého studenta. Program studoval soubor dat a vypočítal emoční stav každého dítěte. Podle tvůrců byla přesnost 72%.

HR

Emoční umělá inteligence může být užitečná při práci se zaměstnanci. Pomáhá určit stav zaměstnance, včas si všimnout jeho únavy nebo nespokojenosti a efektivněji rozdělovat úkoly.

Technologie navíc pomáhá s náborem. S pomocí emoční AI můžete během pohovoru zkontrolovat kandidáta na práci nebo chytit lež.

Americká společnost HireVue používá umělé inteligence k hodnocení kandidátů. Žadatel prochází videorozhovorem a neuronová síť určuje jeho stav pomocí klíčových slov, intonace hlasu, pohybů a výrazů obličeje. AI zdůrazňuje vlastnosti, které jsou pro danou práci důležité, a dává známky, a HR manažer vybere ty správné kandidáty.

Londýnské spuštění Člověk používá video k identifikaci emocí a jejich přiřazení k charakterovým vlastnostem. Po videohovoru obdrží náboráři zprávu, která říká, jak upřímný, zvědavý, vzrušený, nadšený nebo sebevědomý byl kandidát a jak odpovídal na otázky.

Lék

V této oblasti budou užitečné nejen bezkontaktní, ale také kontaktní metody určování emocí. Jsou aktivně implementovány zahraničními startupy - například Affectiva a Brain Power. Vývoj společností zahrnuje brýle AI, které pomáhají dětem a dospělým s autismem rozpoznat emoce ostatních lidí a rozvíjet sociální dovednosti.

Neuronové sítě však mohou pomoci pacientům bez nositelných senzorů. Vědci na Massachusetts Institute of Technology vytvořili neuronovou síť, která detekuje depresi analyzováním řeči člověka. Přesnost výsledku byla 77%. A startup Beyond Verbal používá AI k analýze duševního zdraví pacientů. V tomto případě neuronová síť vybere ze zvukového záznamu pouze hlasové biomarkery.

Auta

Massachusetts Institute of Technology vyvíjí umělou inteligenci zvanou AutoEmotive, která určí stav řidiče a cestujících. Bude nejen monitorovat úroveň stresu, ale také se ji bude snažit snižovat - přehráváním měkké hudby, úpravou teploty v kabině nebo méně rušnou cestou.

Omezení emoční AI

Neuronová síť nemůže vzít v úvahu kontext

AI se naučila identifikovat základní lidské emoce a stavy, ale zatím se s komplexnějšími situacemi dobře nezabývá. Vědci poznamenávají, že výrazy obličeje ne vždy přesně ukazují, jak se člověk skutečně cítí. Jeho úsměv může být předstírán nebo sarkastický, a to lze určit pouze kontextem.

Odborníci společnosti NtechLab se domnívají, že je stále obtížné přesně určit důvod této nebo té emoce.

NtechLab zdůrazňuje, že je nutné rozpoznávat nejen výrazy obličeje, ale také lidská hnutí. Rozmanitá data zlepší emoční AI. S tím souhlasí Daniil Kireev, přední výzkumný pracovník ve společnosti VisionLabs, která vyvíjí tvář v oblasti vývoje produktů. Podle jeho názoru se s velkým množstvím dat zvyšuje přesnost algoritmů.

"Existují chyby, jejich počet závisí na mnoha faktorech: kvalita tréninkového vzorku, trénovaná neuronová síť, data, na kterých konečný systém pracuje." Přidáním informací z různých zdrojů - například hlasu - můžete zlepšit kvalitu systému. Zároveň je důležité pochopit, že tváří spíše určujeme její vyjádření než konečnou emoci. Algoritmus se může pokusit určit simulované emoce, ale za tímto účelem musí vývoj technologie udělat malý krok vpřed, “říká Daniil Kireev.

Špatné vybavení

Kvalitu algoritmů ovlivňují vnější faktory. Aby byla přesnost rozpoznávání emocí vysoká, musí být videokamery a mikrofony vysoké kvality. Kromě toho je výsledek ovlivněn osvětlením, umístěním kamery. Podle Daniila Kireeva nekontrolované podmínky komplikují proces určování stavů člověka.

Pro rozvoj emoční AI potřebujete kvalitní hardware. Pokud najdete dobré vybavení a nastavíte jej správně, bude přesnost výsledků velmi vysoká. A jakmile bude přístupnější a rozšířenější, technologie rozpoznávání emocí budou vylepšeny a aktivněji implementovány.

„Přesnost systému závisí na mnoha faktorech. Hlavní je kvalita statických snímků z kamery, které jsou systému dány k rozpoznání. Kvalita statických rámců je zase ovlivněna nastavením a charakteristikami kamery, matice, osvětlení, umístění zařízení, počtem ploch v rámečku. Se správnou konfigurací hardwaru a softwaru je možné dosáhnout přesnosti detekovaných emocí až o 90–95%, “poznamenává Vitaly Vinogradov, produktový manažer cloudového dohledu a analytické služby Ivideon.

Technologická perspektiva

Nyní v Rusku emocionální umělá inteligence získává na síle. Startupy vyvíjejí technologie a uvádějí na trh své výrobky a zákazníci je testují opatrně.

Gartner však odhaduje, že do roku 2024 bude více než polovina online reklam vyrobena pomocí emoční AI. Počítačové vidění, které se používá k detekci emocí, se stane jednou z nejdůležitějších technologií v následujících 3-5 letech. A MarketsandMarkets předpovídá, že trh emoční analýzy se do roku 2024 zdvojnásobí - z 2,2 miliardy na 4,6 miliardy USD.

Navíc velké společnosti projevují zájem o rozpoznávání emocí - například Procter & Gamble, Walmart, VTB, Rosbank, Sberbank a Alfa-Bank. A domácí startupy vyvíjejí pilotní projekty, které se v budoucnu stanou hotovými řešeními pro podnikání.

Evgeniya Khrisanfova