Алгоритм Прима
Istraživački institut AI Now objavio je u srijedu nove preporuke za odgovornu implementaciju algoritama u javnoj sferi.Njihov savjet je usmjeren na radnu skupinu koju je u siječnju formiralo Gradsko vijeće New Yorka i koja proučava korištenje umjetne inteligencije od strane vlade.
Izvješće AI Now, Algoritamske procjene utjecaja: prema odgovornoj automatizaciji u javnim agencijama, naglašava potrebu za transparentnošću kada je riječ o implementaciji algoritama. Algoritmi imaju ogroman utjecaj na naš svakodnevni život, ali njihov utjecaj ponekad ostaje nezapažen. Na primjer, zato što se ispisuju u infrastrukturu društvenih medija i video platformi, lako je zaboraviti da programi često određuju koji se sadržaj šalje korisnicima interneta. Tek kad nešto pođe po zlu, kao što je video o teoriji urote, koji stiže na vrh popisa trendova na usluzi YouTube, razmatramo automatizirane postupke odlučivanja koji oblikuju internetska iskustva.
A algoritmi nisu ograničeni na internetske platforme. Vladine institucije sve se više oslanjaju na algoritme, u područjima od obrazovanja do kaznenog pravosuđa. U idealnom svijetu, algoritmi bi uklonili ljudsku predrasudu iz teških odluka, kao što je utvrđivanje da li zatvoreniku treba odobriti uvjetni otpust. U praksi, međutim, algoritmi su učinkoviti samo kao ljudi koji ih izrađuju.
Na primjer, istraga od strane ProPublica pokazali su da su algoritmi procjene rizika koji se koriste u sudnicama bili rasno pristrani. Da bi stvari bile još gore, mnogi algoritmi koji se koriste u javnom sektoru su u privatnom vlasništvu, a neke tvrtke odbijaju dijeliti kod koji leži u osnovi njihovog softvera. Zbog toga je nemoguće shvatiti zašto ti takozvani algoritmi "crne kutije" vraćaju određene rezultate.
Jedno potencijalno rješenje koje nudi AI sada? Algoritamske procjene utjecaja. Ove procjene uspostavljaju normu potpune transparentnosti, što znači da vladine agencije koje koriste algoritme trebaju objaviti kada i kako ih koriste. "Ovaj bi zahtjev sam po sebi mogao znatno pridonijeti rasvjetljavanju tehnologija koje se primjenjuju u službi javnosti i gdje bi se trebalo usmjeriti istraživanje odgovornosti", navodi se u izvješću.
Politika otvorenosti koja okružuje algoritme također bi otvorila vrata građanima da prouče i protestiraju protiv njihove upotrebe. Želite li algoritam koji će vam dati ocjenu procjene rizika na temelju čimbenika izvan vaše kontrole, pogotovo kada taj rezultat može pomoći u određivanju ako idete u zatvor? Možda da, možda ne. U svakom slučaju, važno je točno znati koje se varijable analiziraju algoritmom.
Osim toga, AI Now preporučuje postavljanje pravnog standarda za osobe koje lobiraju protiv nepoštenih algoritama.
Na primjer, ako agencija ne otkrije sustave koji razumno spadaju u opseg onih koji donose automatske odluke, ili ako dopušta prodavačima da iznesu zahtjeve za tajne tajne i tako blokiraju značajan pristup sustavu, javnost bi trebala imati priliku izraziti zabrinutost zbog nadzorno tijelo agencije, ili izravno na sudu ako je agencija odbila ispraviti te probleme nakon razdoblja javnog komentara.
Preporuke se uglavnom svodi na jedan sveobuhvatni mandat: ako koristite algoritme, nemojte biti sumnjivi.
Pročitajte cijelo izvješće ovdje.
NASA istraživački uređaj prepoznaje znakove života
NASA razvija minijaturni laboratorij koji može procijeniti uzorke za znakove života. Postojeći planetarni roveri već su u stanju tražiti potencijalne znakove života - ali nisu dizajnirani kako bi zapravo pronašli živa bića. Međutim, NASA je testirala prijenosni uređaj koji naziva "kemijski prijenosnik" - što može biti ...
Kako stvoriti Nerd Nightlight pomoću ISS Live Feed
Razmišljanje o neizmjernosti svemira dovodi do tjeskobe na galaktičkoj skali za neke. Za druge, prostranstvo prostora pruža umirujući podsjetnik na našu ugodnu irelevantnost. Za Ryan Maloneya, studenta medicine iz New Jerseya, pogled iz svemira nudi spokojstvo, zbog čega je počeo stvarati noćno svjetlo ...
Zašto ljudi ubijaju? Istraživački prijedlozi društava, a ne genetika, krivi su
Nova studija navodi da iako smo ubojitiji od većine sisavaca, nasilje nije zapisano u našim genima.