Umělá Inteligence Se Ukázala Jako Rasista - Alternativní Pohled

Umělá Inteligence Se Ukázala Jako Rasista - Alternativní Pohled
Umělá Inteligence Se Ukázala Jako Rasista - Alternativní Pohled

Video: Umělá Inteligence Se Ukázala Jako Rasista - Alternativní Pohled

Video: Umělá Inteligence Se Ukázala Jako Rasista - Alternativní Pohled
Video: Biblický rasismus 2024, Smět
Anonim

Studie vědců z Massachusetts Institute of Technology odhalila podrobnosti o procesu analýzy dat umělou inteligencí, která je při rozhodování často vedena sexistickými a rasistickými stereotypy. Několik systémů, které se účastnily experimentu, prokázalo náchylnost k lidským předsudkům.

Britské noviny „The Daily Mail“píšou, že po obdržení výsledků studie se tým vědců zavázal přeprogramovat umělou inteligenci a odstranit tak předchozí problémy. Podle Irene Chen, která pracuje v technologickém institutu v Massachusetts, mají počítačoví vědci sklon k závěru, že jediným způsobem, jak eliminovat prvky rasismu a sexismu v algoritmech umělé inteligence, je zlepšení softwarového kódu. Kvalita algoritmů je přímo úměrná datům, na nichž pracují. Výzkum Chena s Davidem Sontagem a Fredrikem D. Johannsonem ukazuje, že více dostupných údajů může věci radikálně změnit k lepšímu.

V jednom experimentu se tým podíval na systém, který na základě dostupných informací předpovídal příjem osoby. Analýza ukázala, že v 50% případů má algoritmus tendenci předpovídat, že příjem ženy bude v průměru nižší než příjem muže. Vědci zjistili, že zvýšením množství dostupných údajů 10krát se faktor takové chyby snížil o 40%.

Navíc ve studii systému, který se používá v nemocnicích a předpovídá přežití pacientů podstupujících těžkou operaci, byla přesnost předpovědí mnohem nižší u Mongoloidské rasy než u Kavkazanů a černošů. Vědci však tvrdí, že použití pokročilé analytické techniky může výrazně snížit přesnost predikce u pacientů, kteří nepatří do mongoloidní rasy. To ukazuje, že více dostupných údajů nemusí vždy opravovat chyby algoritmu. Místo toho by měli vědci získat více informací o diskriminovaných skupinách.

Nová metoda přináší vědcům strojového učení další otázku, jak efektivně analyzovat data bez existující diskriminace.

Jak funguje strojové učení v systémech napájených AI?

Systémy umělé inteligence jsou založeny na umělých neuronových sítích (ANNs), které extrapolovají techniky ukládání a učení informací používané lidským mozkem na mechanické systémy. ANNs se snaží najít vzory v dostupných zdrojích informací, včetně řeči, textu a obrázků. Zlepšení přesnosti analýzy dat je jedním ze základních předpokladů, které předcházejí nejnovějšímu vývoji v oblasti umělé inteligence.

„Normální“umělá inteligence používá vstupní data k vyprávění algoritmu o předmětu analýzy, zatímco pracuje s velkým množstvím informací.

Propagační video:

Mezi praktické aplikace strojového učení patří překladatelské služby Google, rozpoznávání tváří z fotografií na Facebooku a filtry na Snapchatu, které skenují obličeje před použitím vizuálních efektů online.

Proces zadávání dat je často časově náročný a je obvykle omezen tokem informací o jednom aspektu studovaného objektu. Nový typ ANN - generativní protivníkové neuronové sítě - staví proti schopnostem dvou různých robotů s umělou inteligencí najednou a vyvolává méně inteligentní systém, který se učí na úkor druhého bez lidské účasti. Tato technika dramaticky zvyšuje účinnost a rychlost strojového učení a zvyšuje kvalitu analýzy dat.

Oliy Kurilov