Vývoj AI Získává Děsivé Tempo: Proč Vývojáři Vyjadřují Obavy Z Toho - Alternativní Pohled

Obsah:

Vývoj AI Získává Děsivé Tempo: Proč Vývojáři Vyjadřují Obavy Z Toho - Alternativní Pohled
Vývoj AI Získává Děsivé Tempo: Proč Vývojáři Vyjadřují Obavy Z Toho - Alternativní Pohled

Video: Vývoj AI Získává Děsivé Tempo: Proč Vývojáři Vyjadřují Obavy Z Toho - Alternativní Pohled

Video: Vývoj AI Získává Děsivé Tempo: Proč Vývojáři Vyjadřují Obavy Z Toho - Alternativní Pohled
Video: JE UMĚLÁ INTELIGENCE NEBEZPEČNÁ? 2024, Smět
Anonim

Technologický pokrok nezastavuje. Za posledních 100 let udělalo lidstvo tak velký krok, že by všechny předchozí generace překvapeně zvolaly. Zdálo by se, že existuje neuvěřitelně mnoho důvodů k radosti. Ale tady je háček: vědci se obávají, že pokrok postupuje příliš rychle. Pojďme zjistit, proč umělá inteligence neboli AI způsobuje tolik starostí předním vývojářům.

Image
Image

Pokrok, který nejen překvapí, ale také děsí

Většina lidí může žít celý život a ani neví, jak moc se náš svět změnil. Abyste pochopili, jak daleko s vývojem AI přišlo lidstvo, zamyslete se nad tím, kdy byly automobily poprvé vynalezeny.

Představte si divoký západ nebo Rusko, kde lidé jezdili na koních vlevo a vpravo, bez semaforů a bezpečnostních pásů. Opatření v oblasti bezpečnosti silničního provozu byla přijata mnohem později - když začalo docházet k mnoha nehodám.

Dnes AI vyvinula samojízdné vozy, které mohou snížit počet dopravních nehod na minimum. Automobily jednoduše vědí, jak mezi sebou komunikovat, budovat bezpečnou trasu a reagovat na náhlé překážky, které vytvářejí nouzové situace na silnicích.

Image
Image

Propagační video:

Lidé se však i nadále obávají umělé inteligence. Kladou si otázku: co se stane, když se technologie dostanou do oblastí, kde je nutné lidské rozhodování? Bude umělá inteligence schopna úplně nahradit lidi, kteří jsou odpovědní za přijímání kandidátů, školení zaměstnanců, propagaci společnosti?

První důvod: nahradí lidi roboty

Prvním důvodem, proč se vědci obávají rychlého vývoje umělé inteligence, je to, že algoritmy již dosáhly takového pokroku, že mohou diagnostikovat nemoci a dokonce rozhodnout, kdo dostane půjčku a kdo ne.

Zastánci tohoto pokroku jsou však jen šťastní, protože činit lidská rozhodnutí někdy vyžaduje odvahu, urážku a pochopení lidské psychologie. Tady je vždy temná stránka. Koneckonců, představte si, jaké to je rozhodnout se, koho vinit a komu dát předčasné propuštění. Nebo nahlásit smrt příbuzného, propustit nekompetentního zaměstnance, který se nachází v obtížné životní situaci.

Image
Image

V ideálním světě bychom nemuseli myslet na temnou stránku. Stroje za nás udělají všechno, už jen proto, že budou mnohem chytřejší a méně zaujaté než lidé.

Důvod druhý: se stroji lze manipulovat

Robot Sophia v rozhovoru řekla: „Přečetl jste příliš mnoho Elona Muska a sledujete hollywoodské filmy. Pokud ke mně budete laskaví, budu k vám laskavý. Zacházejte se mnou jako s inteligentním I / O systémem. “

Ale protože vývoj začíná u lidí a aplikace přímo používají, mohou s daty vstupujícími do stroje manipulovat.

Image
Image

Další strach vědců: data AI se mohou mýlit. To je zvláště nebezpečné v lékařské oblasti. AI může jednoduše přimět pacienta k nesprávné diagnóze, zvláště pokud lékař nebo nemocnice obecně změnili údaje pro svůj vlastní prospěch. Proto by vývojáři měli nést primární odpovědnost za bezpečnost informací a za vývoj bezpečnostních opatření.

AI a mazaná povaha lidského jazyka

Google uzavřel partnerství se společností Jigsaw, která čelila velké výzvě při vývoji umělé inteligence. Softwarová inženýrka Lucy Wasserman pracuje na perspektivě strojového učení, která předpovídá „toxicitu“jazyka. Ale co to znamená?

Smyslem této funkce je, že robot bude analyzovat texty z webových stránek a internetových fór, které obsahují urážlivý kontext, stejně jako útok na osobu, ponížení nebo agitaci.

Toto je část modelu strojového učení nazývaného neurální síť. Studuje slova, věty a odstavce a učí se předvídat, co je toxické a co má naopak pozitivní kontext.

Nejtěžší na tom je zohlednění všech nuancí. Osoba může číst větu a z kontextu pochopit, zda bylo určité slovo urážlivé. Wasserman uvedl příklad slova „homosexuál“a jeho slovní formy, které jsou ponižující a urážlivější.

Důvod třetí: roboti mohou myslet jednostranně

Další strach předních vývojářů: umělá inteligence ještě není schopna analyzovat fráze a věty, takže může považovat určité slovo za urážlivé tím, že přijme „tvrdá“opatření. Stroj se musí naučit číst doslova mezi řádky.

Image
Image

Vývojáři vidí hodnotu v experimentech s otevřeným zdrojovým kódem. Myslí si, že na tom opravdu záleží, pokud chce lidstvo získat spravedlivé roboty.

Ale zatím je nemožné donutit umělou inteligenci přizpůsobit se lidskému světu. Je před námi ještě hodně práce.

To, že roboti nemusí být féroví, je opravdu děsivé. Jak by jim jinak mohlo být svěřeno řešení sporů a konfliktů v budoucnosti?

Princip umělé inteligence je stále poměrně jednoduchý a podobá se vylepšenému PC. Dobrým příkladem jsou hlasoví asistenti jako Alice a Siri. Dnes fungují takto: „Vzhledem k tomu, že v textu je slovo stop, je to určitě urážlivé.“

A mělo by to být takto: „Jaká slova jsou vedle hanlivého? Věřím, že význam věty se hodně změnil, i když je tu něco urážlivého. “

Důvod čtvrtý: Průvodce etikou

AI by měla být zaměřena na člověka a měla by být navržena takovým způsobem, aby v jejím firmwaru bylo pochopení etiky. Ale co to znamená?

  • Zaprvé, etika je založena na základních právech, sociálních hodnotách a zásadách lásky (obecně laskavosti).
  • Zadruhé, stroje by neměly poškodit lidskou autonomii nebo zažít smysl pro spravedlnost.

Další strach vývojářů: když umělá inteligence dosáhne vrcholu svého vývoje a nebude záviset na podpoře lidí, obrátí se proti lidskosti.

Vše záleží na vývojářích. Mohou nasměrovat práci umělé inteligence k boji proti zločinu. Najděte například ty, kteří distribuují dětskou pornografii.

Je důležité zavést bezpečnostní prvky dříve, než se AI vymkne lidské kontrole. A vyjde to jednoznačně, protože o to jde.

Roboti musí být blízcí lidem

Jinými slovy, pokud má někdo důvěřovat rozhodnutí učiněnému strojem, musí splňovat lidská kritéria. Proto se vývojáři musí ujistit, že každé rozhodnutí algoritmu je spravedlivé. Pro vědce není cílem vytvořit alternativní formu inteligence, ale pomoci lidem v rozvoji.

Na konci dne se většina lidí shodne, že AI přinese úžasný nový svět.

Pátý důvod: válka proti lidskosti

Největší věcí, která vývojářům v noci nedává spát, je snaha pochopit nekonečné možnosti a dopad této technologie na zdravotnictví, vzdělávání a služby zákazníkům. Když umělá inteligence jde nad rámec „projektu“a nakonec do výroby, bude mít skutečný sociální dopad.

Každý z vývojářů věří, že jsme v inflexním bodě mezi lidským a digitálním světem. Ale AI nemůže změnit náš život sám. Lidé musí nejprve změnit sebe samého, aby využili plný potenciál inteligence.

Není divu, že se lidé bojí AI. Ale nebudou moci zotročit nebo zničit ty, kteří s nimi mají společný cíl - rozvíjet se a dělat pokrok. Když si lidé uvědomí, že by neměli myslet jako zvířata, ale jako vyšší bytosti, pak se žádný robot nebude bát.

Alisa Krasnova