Algoritmus společnosti Compas, který pro americkou policii pracuje od roku 1998, analyzoval údaje obžalovaných a poté na základě obdržených informací pomohl například rozhodnout, zda by měl být zločinec propuštěn na kauci nebo měl být držen ve vazbě. Při výběru míry zdrženlivosti systém zohledňoval věk, pohlaví a výsledky v kriminální aréně. Za 20 let „služby“byl algoritmus hodnocen více než milionem lidí, ale nedávno byl prohlášen za nekompetentní, poté byl okamžitě odvolán.
Vědci z Dartmouth College testovali, jak přesný je systém a zda mu lze důvěřovat. Za tímto účelem přijali na volné noze, obyčejné lidi bez právnického vzdělání, aby se mohli rozhodovat na základě krátkých informací o lidech, poskytujících subjektům informace o pohlaví, věku, kriminální historii a několika dalších parametrech.
Přesnost předpovědi nezávislých pracovníků, kteří měli malou dokumentaci, byla téměř 70 procent, zatímco program zaostával za lidmi o pět procent, přičemž se opíral o 137 biografických bodů. Analýza rozsudků algoritmu ukázala, že program pravděpodobně podezřívá černé vězně.
„Chyby v takových případech mohou být velmi nákladné, takže stojí za zvážení, zda by měl být tento algoritmus vůbec použit k vynesení verdiktu soudu,“říká jeden z autorů studie.
Po prostudování principu algoritmu dospěli vědci k závěru, že čím mladší je obžalovaný a čím více zatýkání má za sebou, tím vyšší je pravděpodobnost relapsu, proto odborníci z oblasti AI uznali tuto technologii za nespolehlivou.
Viacheslav Larionov