Proč Je Umělá Inteligence Soudit Zločince Nebezpečná? - Alternativní Pohled

Obsah:

Proč Je Umělá Inteligence Soudit Zločince Nebezpečná? - Alternativní Pohled
Proč Je Umělá Inteligence Soudit Zločince Nebezpečná? - Alternativní Pohled

Video: Proč Je Umělá Inteligence Soudit Zločince Nebezpečná? - Alternativní Pohled

Video: Proč Je Umělá Inteligence Soudit Zločince Nebezpečná? - Alternativní Pohled
Video: JE UMĚLÁ INTELIGENCE NEBEZPEČNÁ? 2024, Smět
Anonim

Umělá inteligence již nějakým způsobem pomáhá určovat vaši budoucnost. Když hledáte něco ve vyhledávači, použijte službu, jako je Netflix, nebo banka vyhodnotí vaši vhodnost pro hypotéku. Co se ale stane, pokud umělá inteligence musí u soudu určit, zda jste vinni nebo ne? Kupodivu se to v některých zemích již může stát. Nedávno byl americký vysoký soudce John Roberts dotázán, zda si dokáže představit den, kdy „inteligentní stroje řízené umělou inteligencí budou pomáhat při hledání důkazů nebo dokonce při soudních rozhodnutích“. Odpověděl: „Tento den již nastal a významně pomáhá soudním orgánům v řízení.“

Roberts možná měl na mysli nedávný případ Erica Loomise, který byl na doporučení tajného proprietárního softwaru od soukromé společnosti odsouzen k šesti letům vězení. Loomis, který již měl kriminální minulost a byl odsouzen za útěk z policie ukradeným autem, nyní tvrdí, že bylo porušeno jeho právo na řízení, protože ani on, ani jeho zástupci nebyli schopni přezkoumat nebo zpochybnit doporučující algoritmus.

Zpráva byla připravena softwarem Compas, který Notrpointe prodává lodím. Tento program ztělesňuje nový trend ve výzkumu umělé inteligence: pomáhá soudcům dělat „lepší“(nebo alespoň více založená na datech) rozhodnutí u soudu.

I když konkrétní podrobnosti o případu Loomis zůstávají uzavřené, určitě obsahuje grafy a čísla, které definují život, chování a pravděpodobnost relapsu Loomis. Patří mezi ně věk, rasa, genderová identita, zvyky, historie prohlížeče a některá měření lebky. Nikdo to neví přesněji.

Je známo, že státní zástupce v případu řekl soudci, že Loomis prokázal „vysoké riziko recidivy, násilí, přípravného řízení“. To je standard, pokud jde o ukládání trestů. Soudce souhlasil a řekl Loomisovi, že „Compas ho označil za osobu vysoce rizikovou pro společnost.“

Nejvyšší soud ve Wisconsinu odsoudil Loomise a dodal, že zpráva společnosti Compas přidala k jeho rozhodnutí cenné informace, ale poznamenal, že bez něj vynesl stejný trest. Samozřejmě to nebudete moci s jistotou zkontrolovat. Jaký druh kognitivních předsudků může existovat, když je všemohoucí „chytrý“systém, jako je Compas, zapojen do poradenství soudcům, co mají dělat?

Neznámé použití

Propagační video:

Buďme upřímní, na tom, co udělal soud ve Wisconsinu, není nic „nezákonného“- toto je jen příklad. Totéž mohou a budou dělat i jiné soudy.

Bohužel nevíme, do jaké míry se při odsouzení používají AI a další algoritmy. Předpokládá se, že některé soudy „testují“systémy jako Compas v uzavřených soudních řízeních, nemohou si však nárokovat partnerství. Existuje také představa, že několik inteligentních systémů AI vyvíjí takové inteligentní systémy.

Image
Image

Použití umělé inteligence v legislativě však nezačíná ani nekončí větou, ale začíná vyšetřováním. Spojené království již vyvinulo systém VALCRI, který provádí časově náročnou analytickou práci během několika sekund - proplétá se spoustou dat, jako jsou texty, laboratorní zprávy a policejní dokumenty, aby zdůraznil věci, které mohou vyžadovat další vyšetřování.

Britská policie ve West Midlands otestuje VALCRI v příštích třech letech pomocí anonymních dat obsahujících více než 6,5 milionu záznamů. Podobný test provádí antverpská policie v Belgii. V minulosti však byly AI a projekty hlubokého učení zahrnující obrovské datové sady problematické.

Výhody pro pár

Technologie poskytla soudním síním mnoho užitečných pomůcek, od kopírovacích strojů, extrakce DNA z otisků prstů až po sofistikované techniky sledování. To ale neznamená, že jakákoli technologie představuje vylepšení.

I když použití AI při vyšetřování a odsouzení může potenciálně ušetřit čas a peníze, představuje akutní problémy. Zpráva společnosti Compas od společnosti ProPublica objasnila, že černoši byli programem mylně považováni za recidivisty více než bílí. I ty nejsofistikovanější systémy AI mohou zdědit rasové a genderové předsudky těch, kdo je vytvářejí.

Jaký má navíc smysl posunout (alespoň částečně) rozhodování o problémech, které jsou pro člověka jedinečné, na algoritmus? Spojené státy mají určité potíže, když poroty zkouší své kolegy. Právní normy nikdy nebyly měřítkem, proto jsou tyto porotní procesy považovány za nejdemokratičtější a nejúčinnější systémy odsouzení. Děláme chyby, ale postupem času shromažďujeme znalosti o tom, jak je nedělat, a vylepšujeme systém.

Compas a podobné systémy představují v právním systému černou skříňku. Takové by neměly být. Právní systémy závisí na kontinuitě, transparentnosti informací a schopnosti přezkoumávat. Společnost nechce systém, který by podporoval závod v budování startupů AI, které by poskytovaly rychlá, levná a exkluzivní řešení. Rychle vyrobená AI bude hrozná.

Aktualizovaná verze Compas s otevřeným zdrojovým kódem by byla vylepšením. Nejprve však bude třeba zvýšit standardy soudního systému, než začneme přesouvat odpovědnost ve prospěch algoritmů.

ILYA KHEL