Zajednički računalni program predviđa recidivizam kao loše kao i ljudi

$config[ads_kvadrat] not found
Anonim

Baš kao profesionalni kuhar ili srčani kirurg, algoritam strojnog učenja je dobar samo onoliko koliko i obuka koju prima. Budući da algoritmi sve više preuzimaju vladavinu i donose odluke za ljude, otkrivamo da mnogi od njih nisu dobili najbolje obrazovanje, jer oponašaju predrasude temeljene na ljudskoj rasi i spolu, pa čak i stvaraju nove probleme.

Iz tih razloga, osobito se odnosi na to da više država, uključujući Kaliforniju, New York i Wisconsin, koristi algoritme za predviđanje koji će ljudi ponovno počiniti zločine nakon što su bili zatvoreni. Čak i gore, čini se da čak i ne funkcionira.

U radu objavljenom u srijedu u časopisu Znanstveni napredak Dvojica računalnih znanstvenika na koledžu Dartmouth otkrila su da široko korišteni računalni program za predviđanje recidivizma nije precizniji od potpuno neobučenih civila. Ovaj program, pod nazivom Popravljanje kazneno-popravnog sustava za alternativne sankcije, analizira 137 različitih čimbenika kako bi se utvrdilo koliko je vjerojatno da će osoba počiniti novi zločin nakon puštanja na slobodu. COMPAS uzima u obzir čimbenike kao što su upotreba tvari, socijalna izolacija i drugi elementi koje teoretiziraju kriminolozi mogu dovesti do recidivizma, rangirajući ljude kao visoke, srednje ili niske rizike.

I sigurno, procjena rizika zvuči sjajno. Zašto ne biste imali više podataka koji bi pomogli sudovima da odrede tko je veći rizik? Međutim, Dartmouthovi računalni znanstvenici Julia Dressel i Hany Farid otkrili su da su neobučeni pojedinci ispravno procijenili rizik recidivizma sa gotovo istom točnošću kao COMPAS, što upućuje na to da navodna snaga algoritma zapravo nije tamo.

U jednom pokusu koji je uključivao samo dio informacija koje je koristio COMPAS (sedam čimbenika umjesto 137, i isključujući rasu), skupina ljudskih volontera na internetu, s vjerojatnim nema obuke u procjeni kriminalnog rizika, procijenila je slučajeve. Oni su ispravno procijenili recidivizam osobe sa 67-postotnom točnošću u usporedbi s kompasovom 65-postotnom točnošću.

Odvojite trenutak i pustite da potone. Neobučeni ljudi na webu malo su bolje predvidjeli hoće li se osoba vratiti u zatvor nego alat koji je doslovno osmišljen da predvidi hoće li se osoba vratiti u zatvor, I postaje još gore. Kada dodate optuženikovu rasu, volonterske lažno pozitivne i lažno negativne stope bile su unutar samo nekoliko postotnih bodova COMPAS-a. Dakle, ne samo da COMPAS nije toliko velik u predviđanju recidivizma, već je podjednako sklon rasnoj pristranosti kao i ljudi. Toliko o hladnoj logici računala.

Istraživači su zatim napravili linearni model koji je odgovarao stopi predviđanja COMPAS-a sa samo dva faktora: dobi i brojem prijašnjih osuda. Da budemo jasni, ovo predviđanje također bi bilo nepravedno, ali pokazuje koliko je COMPAS pogrešan.

I dok je ovo istraživanje novo, velike potrepštine koje zastupaju nisu. U istrazi iz 2016., ProPublica novinari su otkrili da COMPAS ne samo da je nepouzdan, nego je i sustavno pristran protiv afričkih Amerikanaca, dosljedno ocjenjujući crne kao veći rizik od bijelaca koji su počinili teže zločine. Nadamo se da će ovo novo istraživanje pomoći u utiranju puta za pravednije procese procjene rizika u sustavu kaznenog pravosuđa.

Činjenica da je COMPAS u najboljem slučaju beskoristan i duboko pristran u najgorem slučaju sugerira da bi računalna procjena rizika mogla produbiti nepravde koje bi pravosudni sustav trebao rješavati.Budući da se rezultati procjene rizika mogu primijeniti u bilo kojem koraku kaznenopravnog postupka, uključujući i postavljanje obveznica osobe, utvrđivanje da li im je odobren uvjetni otpust, au nekim državama, čak i za određivanje kazne osobe, ovo istraživanje upućuje na potrebu da se preispitati korištenje COMPAS-a i drugih programa.

$config[ads_kvadrat] not found