Week 0, continued
Kada je riječ o identificiranju egzistencijalnih prijetnji koje predstavljaju tehnološke inovacije, popularna mašta poziva na vizije terminator, Matrica, i Ja, Robot - distopije kojima upravljaju roboti robota koji masovno iskorištavaju i istrebljuju ljude. U tim spekulativnim budućnostima, kombinacija super-inteligencije i zlih namjera dovodi računala do uništenja ili porobljavanja ljudske rase.
Međutim, nova studija sugerira da će to biti banalna primjena A.I. to će dovesti do ozbiljnih društvenih posljedica u sljedećih nekoliko godina. Izvješće - „Zlonamjerna upotreba umjetne inteligencije“ - čiji su autori 26 istraživača i znanstvenika iz elitnih sveučilišta i tehnički orijentiranih istraživačkih centara, opisuje načine na koje sadašnje A.I. tehnologije ugrožavaju našu fizičku, digitalnu i političku sigurnost. Kako bi se njihova studija usredotočila, istraživačka skupina je samo promatrala tehnologiju koja već postoji ili će se vjerojatno dogoditi u sljedećih pet godina.
Što je studija otkrila: A. I. sustavi će vjerojatno proširiti postojeće prijetnje, uvesti nove i promijeniti njihov karakter. Teza izvješća je da će tehnološka dostignuća pojedine nedjela učiniti lakšim i vrijednijim. Istraživači tvrde da poboljšanja u A.I. smanjit će količinu resursa i stručnosti potrebnih za provedbu nekih kibernetičkih napada, čime će se učinkovito smanjiti prepreke za kriminal:
Troškovi napada mogu se smanjiti skalabilnim korištenjem AI sustava za izvršavanje zadataka koji bi obično zahtijevali ljudski rad, inteligenciju i stručnost. Prirodni učinak bio bi proširiti skup aktera koji mogu izvršiti određene napade, brzinu kojom mogu izvršiti te napade i skup potencijalnih ciljeva.
Izvješće daje četiri preporuke:
1 - Donositelji politika trebaju blisko surađivati s tehničkim istraživačima kako bi istražili, spriječili i ublažili potencijalne zlonamjerne uporabe AI.
2. Istraživači i inženjeri umjetne inteligencije trebali bi ozbiljno shvatiti prirodu svoga rada s dvojnom namjenom, dopuštajući pogrešno povezana pitanja utjecati na istraživačke prioritete i norme, te proaktivno doprijeti do relevantnih aktera kada se mogu predvidjeti štetne primjene.
3 - Najbolje bi se prakse trebale utvrditi u područjima istraživanja s zrelijim metodama za rješavanje problema dvojne namjene, kao što je računalna sigurnost i uvezene u slučaju AI.
4 - Aktivno nastojati proširiti raspon dionika i stručnjaka za domene koji su uključeni u rasprave o tim izazovima
Kako A.I. trenutne prevare mogu učiniti pametnijima: Naprimjer, napadi krađe identiteta, u kojima se umjetnici prevaruju kao prijatelj prijatelja, član obitelji ili kolega kako bi stekli povjerenje i izvukli informacije i novac, već su prijetnja. Ali danas zahtijevaju značajno trošenje vremena, energije i stručnosti. Kao A.I. sustavi povećavaju u sofisticiranosti, neke aktivnosti potrebne za napad podvodnim phishingom, kao što je prikupljanje informacija o ciljanju, mogu biti automatizirane. Fišer bi tada mogao uložiti znatno manje energije u svaki zahvat i ciljati više ljudi.
A ako scammers počne integrirati A.I. u njihovom online napadu, može postati nemoguće razlikovati stvarnost od simulacije. "Kako se AI razvija dalje, uvjerljivi chatboti mogu izazvati ljudsko povjerenje angažiranjem ljudi u duljim dijalozima, a možda i vizualno maskirati se kao druga osoba u video chatu", navodi se u izvješću.
Već smo vidjeli posljedice strojno generiranog videozapisa u obliku Deepfakesa. Kako te tehnologije postaju pristupačnije i jednostavnije za korištenje, istraživači se brinu da će loši glumci širiti izmišljene fotografije, videozapise i audio datoteke. To bi moglo rezultirati vrlo uspješnim kampanjama klevete s političkim posljedicama.
Iza tipkovnice: Potencijalna zlouporaba nije ograničena na internet. Kako se krećemo prema usvajanju autonomnih vozila, hakeri bi mogli primijeniti adverzijalne primjere kako bi zavarali automobile koji se sami voze u pogrešnom shvaćanju okoline. "Slika znaka za zaustavljanje s nekoliko piksela promijenila se na specifične načine, koje bi ljudi lako prepoznali kao sliku stop znaka, ipak bi se sustav AI mogao pogrešno klasificirati kao nešto sasvim drugo", navodi se u izvješću.
Druge prijetnje uključuju autonomne bespilotne letjelice s integriranim softverom za prepoznavanje lica za svrhe ciljanja, koordinirane DOS napade koji oponašaju ljudsko ponašanje i automatizirane, hiper personalizirane kampanje dezinformacije.
U izvješću se preporučuje da istraživači razmotre moguće zlonamjerne primjene A.I. tijekom razvoja tih tehnologija. Ako se ne uspostave adekvatne obrambene mjere, možda već imamo tehnologiju za uništavanje čovječanstva, a nisu potrebni roboti ubojice.
Zašto 'Wonder Woman' video igra će biti strašan
Razvojni inženjeri iza Batmana: Arkham Origins 2013. objavili su oglase za posao koji traže kvalificirane pojedince za rad na dva nadolazeća DC Comics Universe naslova "AAA" kalibra. Zvuči obećavajuće! Može li se jedna od njih fokusirati na Wonder Woman? Nadajmo se. Postoje neke nejasne naznake WB-a-Montreal da je jedan od ...
Twitter će uvijek biti strašan za PR propast gume
Twitter je pomalo u padu. Ima probleme s CEO-om, probleme s uznemiravanjem, probleme s novcem, te će Slack pratiti konkurenciju. Ali ako postoji jedna stvar koju je Twitter savladao 2015., to je PR spektakl. Prije Interneta, diskurs između robnih marki i ljudi bio je posve drugačija stvar, jedan-w ...
4 razloga zašto Microsoftov radikalni Xbox One-PC budućnost će biti strašan
U budućnosti, linije između igraćih konzola, pametnih telefona i prijenosnih računala mogu nestati. U utorak, blogosferu je zapalio Tom Warren, The Verge, koji je tvrdio da su izvori u Microsoftu otkrili da tvrtka planira dati Windows 10 računalima mogućnost igranja Xbox One igara. Plan bi mogao transformirati ...