A. I. Istraživački institut pokazuje kako stvoriti odgovorne algoritme

$config[ads_kvadrat] not found

Алгоритм Прима

Алгоритм Прима
Anonim

Istraživački institut AI Now objavio je u srijedu nove preporuke za odgovornu implementaciju algoritama u javnoj sferi.Njihov savjet je usmjeren na radnu skupinu koju je u siječnju formiralo Gradsko vijeće New Yorka i koja proučava korištenje umjetne inteligencije od strane vlade.

Izvješće AI Now, Algoritamske procjene utjecaja: prema odgovornoj automatizaciji u javnim agencijama, naglašava potrebu za transparentnošću kada je riječ o implementaciji algoritama. Algoritmi imaju ogroman utjecaj na naš svakodnevni život, ali njihov utjecaj ponekad ostaje nezapažen. Na primjer, zato što se ispisuju u infrastrukturu društvenih medija i video platformi, lako je zaboraviti da programi često određuju koji se sadržaj šalje korisnicima interneta. Tek kad nešto pođe po zlu, kao što je video o teoriji urote, koji stiže na vrh popisa trendova na usluzi YouTube, razmatramo automatizirane postupke odlučivanja koji oblikuju internetska iskustva.

A algoritmi nisu ograničeni na internetske platforme. Vladine institucije sve se više oslanjaju na algoritme, u područjima od obrazovanja do kaznenog pravosuđa. U idealnom svijetu, algoritmi bi uklonili ljudsku predrasudu iz teških odluka, kao što je utvrđivanje da li zatvoreniku treba odobriti uvjetni otpust. U praksi, međutim, algoritmi su učinkoviti samo kao ljudi koji ih izrađuju.

Na primjer, istraga od strane ProPublica pokazali su da su algoritmi procjene rizika koji se koriste u sudnicama bili rasno pristrani. Da bi stvari bile još gore, mnogi algoritmi koji se koriste u javnom sektoru su u privatnom vlasništvu, a neke tvrtke odbijaju dijeliti kod koji leži u osnovi njihovog softvera. Zbog toga je nemoguće shvatiti zašto ti takozvani algoritmi "crne kutije" vraćaju određene rezultate.

Jedno potencijalno rješenje koje nudi AI sada? Algoritamske procjene utjecaja. Ove procjene uspostavljaju normu potpune transparentnosti, što znači da vladine agencije koje koriste algoritme trebaju objaviti kada i kako ih koriste. "Ovaj bi zahtjev sam po sebi mogao znatno pridonijeti rasvjetljavanju tehnologija koje se primjenjuju u službi javnosti i gdje bi se trebalo usmjeriti istraživanje odgovornosti", navodi se u izvješću.

Politika otvorenosti koja okružuje algoritme također bi otvorila vrata građanima da prouče i protestiraju protiv njihove upotrebe. Želite li algoritam koji će vam dati ocjenu procjene rizika na temelju čimbenika izvan vaše kontrole, pogotovo kada taj rezultat može pomoći u određivanju ako idete u zatvor? Možda da, možda ne. U svakom slučaju, važno je točno znati koje se varijable analiziraju algoritmom.

Osim toga, AI Now preporučuje postavljanje pravnog standarda za osobe koje lobiraju protiv nepoštenih algoritama.

Na primjer, ako agencija ne otkrije sustave koji razumno spadaju u opseg onih koji donose automatske odluke, ili ako dopušta prodavačima da iznesu zahtjeve za tajne tajne i tako blokiraju značajan pristup sustavu, javnost bi trebala imati priliku izraziti zabrinutost zbog nadzorno tijelo agencije, ili izravno na sudu ako je agencija odbila ispraviti te probleme nakon razdoblja javnog komentara.

Preporuke se uglavnom svodi na jedan sveobuhvatni mandat: ako koristite algoritme, nemojte biti sumnjivi.

Pročitajte cijelo izvješće ovdje.

$config[ads_kvadrat] not found