Umělá Inteligence Se Naučila Podvádět Jinou Umělou Inteligenci - Alternativní Pohled

Umělá Inteligence Se Naučila Podvádět Jinou Umělou Inteligenci - Alternativní Pohled
Umělá Inteligence Se Naučila Podvádět Jinou Umělou Inteligenci - Alternativní Pohled

Video: Umělá Inteligence Se Naučila Podvádět Jinou Umělou Inteligenci - Alternativní Pohled

Video: Umělá Inteligence Se Naučila Podvádět Jinou Umělou Inteligenci - Alternativní Pohled
Video: TOP 5 věcí, které by se staly, KDYBY SVĚT OVLÁDLA UMĚLÁ INTELIGENCE I 2024, Duben
Anonim

Vědci z Massachusetts Institute of Technology (MIT) vyvinuli techniku pro lákání textové analýzy umělé inteligence (AI), uvedl Wired.

Vědci si všimli, že nepatrná změna fráze, která je pro člověka srozumitelná, může klamat AI. Vyvinuli algoritmus, který nahradí slova synonyma a oklamá rozpoznávací text AI. Nuance spočívá v tom, že samotný útočný algoritmus používá AI k výběru synonym.

Například fráze „Postavy obsažené v nemožně vymyšlených situacích jsou zcela odcizeny od reality.“("Postavy hrané v neuvěřitelně vymyšlených situacích jsou úplně mimo kontakt s realitou"), což je negativní recenze filmu.

Pokud v něm nahradíme slova synonyma, pak věta „Postavy obsažené v nemožně vytvořených situacích jsou zcela odcizeny od reality“(„Postavy hrané za neuvěřitelně zručných okolností jsou zcela odtrženy od reality“), pak AI považuje recenzi za pozitivní.

Klamat lze také jiné typy systémů umělé inteligence, v tomto případě byly zranitelnosti prokázány hlavně v systémech rozpoznávání obrazu a řeči.

Vědci poznamenali, že takové jemné poškození dat může klamat AI a může být použito k útokům na systémy, které se stávají významnými, protože se šíří AI v oblasti financí, zdravotnictví a dalších.