Do Roku 2040 Může Umělá Inteligence Revolucionizovat Principy Jaderné Bezpečnosti - Alternativní Pohled

Do Roku 2040 Může Umělá Inteligence Revolucionizovat Principy Jaderné Bezpečnosti - Alternativní Pohled
Do Roku 2040 Může Umělá Inteligence Revolucionizovat Principy Jaderné Bezpečnosti - Alternativní Pohled

Video: Do Roku 2040 Může Umělá Inteligence Revolucionizovat Principy Jaderné Bezpečnosti - Alternativní Pohled

Video: Do Roku 2040 Může Umělá Inteligence Revolucionizovat Principy Jaderné Bezpečnosti - Alternativní Pohled
Video: Как вода действует на базальтовую минеральную вату Baswool 2024, Smět
Anonim

Nedávno publikovaná studie společnosti RAND Corporation dospěla k závěru, že do roku 2040 by umělá inteligence (AI) mohla radikálně změnit koncept jaderného odstrašení.

Zdá se, že stroj Doomsday řízený umělou inteligencí je nepravděpodobný, ale skutečná rizika umělé inteligence pro jadernou bezpečnost spočívají ve schopnosti umělé inteligence přimět lidi k neodůvodněným, potenciálně apokalyptickým rozhodnutím.

Během studené války si koncept zajištěného vzájemného ničení zachoval nejistý mír mezi supervelmocemi a tvrdil, že jakýkoli útok by měl za následek zničující odvetu. Výsledkem bylo, že koncept HLG zajistil strategickou stabilitu a po obou stranách se vytrvale připravoval na akce, které by se ve skutečnosti mohly vyvinout v atomovou válku.

Publikace RAND říká, že AI je v nadcházejících desetiletích schopna zničit koncept zajištěné vzájemné destrukce, a tím podkopat strategickou stabilitu našeho světa. Díky sofistikovanějším senzorům je pravděpodobné, že bude možné identifikovat a zničit „odvetné zbraně“- například jaderné ponorky a mobilní střely.

Národy mohou být v pokušení hledat aktiva prvního úderu, jako by to byla výhoda oproti jejich soupeřům, i když nemají v úmyslu udeřit jako první. To podkopává stabilitu v tom, že i když strana schopná napadnout první tuto příležitost nevyužije, její soupeř si nemůže být jistý.

"Souvislost mezi jadernou válkou a umělou inteligencí není nová, ve skutečnosti jsou příběhy vzájemně propojeny," říká Edward Geist, spoluautor článku a RAND. "Zpočátku byla velká část výzkumu AI prováděna s podporou armády při dosahování jejich cílů."

Jako příklad uvedl „adaptivní plánovaný pokus o přežití“provedený v 80. letech, jehož cílem bylo použít AI ke kombinaci inteligence a cílení na jaderné zbraně.

V případě nejistoty by umělá inteligence mohla zlepšit stabilitu strategické situace zlepšením přesnosti shromážděných informací a jejich analýz.

Propagační video:

Vědci věří, že v procesu vývoje bude umělá inteligence méně náchylná k chybám ve srovnání s lidmi, což znamená, že z dlouhodobého hlediska bude faktorem stability.

Vadim Tarabarko