Naš A.I. Politika je zaglavljena u prošlosti

$config[ads_kvadrat] not found

Stanje u Americi kao pred građanski rat! - Aleksandar Pavić

Stanje u Americi kao pred građanski rat! - Aleksandar Pavić
Anonim

Ed Felten, zamjenik glavnog tehničara SAD-a za Ured za znanost i tehnologiju u Bijeloj kući, kaže da ljudi imaju dvije glavne odgovornosti kada je riječ o razvoju i napretku umjetne inteligencije.

Prvo, kaže on, jest da "iskoristi prednosti A.I. stvarnost. ”Druga:“ odgovoriti na rizike A.I. ”

Felten je razgovarao s velikim brojem ljudi u Centru za izvedbu umjetnosti Sveučilišta u New Yorku u A.I. Sada - serija ljetnih predavanja pod pokroviteljstvom Bijele kuće koja je nastojala ispitati i raspraviti ključna pitanja vezana uz budućnost A.I. tehnologija.

A. I. nalazi se na raskrižju, A.I. Sada su supredsjedateljica Kate Crawford (istraživačica u Microsoft Research-u) i Meredith Whittaker (osnivač i predvodnik Google Open Research-a). Privatni i javni sektor moraju surađivati ​​kako bi stvorili neku vrstu izvedivog A.I. politika. No, problem je u tome što, dok tehnološke tvrtke čine ogromne korake prema unapređivanju stvarnog koda i arhitekture koja ulazi u stvaranje A.I. svemoćna sila, naše trenutne političke strukture su zastarjele ili, još gore, nepostojeće.

Predugo, A.I. je odbačena kao futuristički koncept, neprimjenjiv u moderno doba. Ali A.I. tiho se manifestirao u urbanu politiku, proučavajući mnoštvo podataka i isporučujući usluge ljudima na način na koji samo ljudska moć nije u stanju postići. Felten je naveo primjere u načinu na koji algoritmi mogu koristiti podatke za povezivanje ljudi s pristupačnim kućama ili provesti transparentnost kako bi javnost imala pristup vrijednim informacijama.

To ne znači da je A.I. je savršen; to je jako puno ne, Tijekom glavne tribine za večer, Latanya Sweeney, A.I. istraživač na Sveučilištu Harvard, razgovarao je o priči koju je nazvala "Dan kad je moje računalo bilo rasističko".

Novinar koji je intervjuirao Sweeneyja pretražio je njezino ime preko Googlea i otkrio da se njezino ime pojavljuje pod oglasima za stranice koje nude prikupljanje i dijeljenje podataka o kaznenom uhićenju. Sweeney nikada nije bio uhićen, a njezino ime nije bilo ni dio baze podataka na web-stranici - no njezino je ime bilo istaknuto u oglasu. Kao i svaki dobar znanstvenik, Sweeney je uzeo svoje osobno iskustvo i proveo studiju i otkrio da su ti oglasi znatno vjerojatnije da će navesti imena crnih pojedinaca nego bijele osobe. Razlog? Googleova isporuka ovih oglasa rezultat je algoritma koji daje veću težinu onome što su ljudi kliknuli kada su se oglasi pojavili. Kada je crno ime bilo Googled, više je ljudi kliknulo na te oglase. Sustav je naučio uzorak i počeo isporučivati ​​te oglase česta.

To je vrijedna pouka za utemeljenje obećanja A.I.: ljudi u konačnici snagom tehnologije, a rasistički postupci ljudi mogu utjecati na dizajn i algoritme i, da, čak i A.I.

Google može lako otkriti te predrasude u svojim oglasnim uslugama i raditi na njihovom ispravljanju. "Odlučili su ne htjeti", raspravlja Sweeney.

Može li moderniji okvir politike prisiliti Google na sanaciju ovog problema? Možda. Nicole Wong, koja je od 2013. do 2014. bila Feltenov prethodnik, naglasila je da mnogi - uključujući i A.I. sami istraživači - imali su stvarnu zabrinutost zbog "rastuće asimetrije na vlasti" između ljudi koji koriste velike podatke i ljudi koji su na kraju pogođeni, a koji su se kretali od subjekata podataka ili onih na koje su utjecali ti podaci,

Ta zabrinutost nije ograničena samo na privatni sektor. Roy Austin, zamjenik pomoćnika predsjednika u Vijeću za unutarnju politiku Bijele kuće, dotaknuo je kako bi provedbu zakona mogla uvelike poboljšati A.I. - ili stvoriti golemi prodor moći i zloupotrebe kada je u pitanju privatnost civila. "Postavlja se pitanje," Što ćemo učiniti s tim podacima? ", Rekao je. Jedna je stvar imati podatke, ali tko ima pristup? Kako dugo? Tko će imati pristup? Opet, mi nemamo odgovore na politiku ili rješenja za ova pitanja i nesigurnosti - a to je zabrinjavajuće jer se sve više okrećemo budućnosti koju kontrolira A.I.

Treći stup brige imao je manje veze s zlobnim korištenjem A.I., a više s time kako A.I. i autonomni sustavi istiskuju ljude s radnih mjesta. Henry Siu, A.I. istraživač na Sveučilištu u Britanskoj Kolumbiji raspravljao je o "rutinskim" zanimanjima (gdje zaposlenici provode vrlo specifičan skup zadataka koji gotovo nikad ne odstupaju od postavljene rutine) i kako su ti gubici radnih mjesta najosjetljiviji na poremećaje u tehnologiji. Automatizacija je dovela do naglog smanjenja broja radnih mjesta - a oni se ne vraćaju.

Zvuči kao ista stara priča o industrijalizaciji, ali nije sasvim. Iako je "ova revolucija možda već ovdje … ona može biti manje egzotična nego što smo zamislili", upozorio je David Edelman, specijalni pomoćnik predsjednika za ekonomsku i tehnološku politiku. Gubitak posla "neće se dogoditi odjednom." I on i Siu su naglasili da je rješenje stvoriti obrazovnu klimu u kojoj ljudi ne prestaju ići u školu i stalno stječu nove vještine i specijalizacije koje im omogućuju prilagodbu s tehnologija.

Moglo bi biti utješno političarima da shvate da Sjedinjene Države nisu same u rješavanju tih pitanja. Ali ako Amerika namjerava nastaviti voditi put za A.I., to mora učiniti na političkoj sceni.

Mustafa Suleyman, suosnivač Google DeepMinda, raspravljao je o potencijalima za A.I. pomoći zdravstvenim sustavima i omogućiti liječnicima na strojnim algoritmima da dijagnosticiraju određene bolesti i bolesti - oslobađajući vrijeme za ljude da pronađu metode liječenja. Za Suleymana, koji je Britanac, to se nije činilo kao nepotrebno shvaćanje da se takav sustav uspostavi u bolnicama. Sweeney je međutim istaknuo da "u SAD-u nemate kontrolu nad vlastitim podacima" - ne postoje regulatorne mjere koje bi osigurale da se informacije ne zloupotrebljavaju. A to je a ogroman problem.

"Želim sve što mogu izvući iz svakog uspjeha tehnologije", rekao je Sweeney. "Problem nije tehnološka strana; problem je u tome što nismo u skladu s javnom politikom."

$config[ads_kvadrat] not found