A.I. Rapid Advance treba biti strašan ako plaćate pozornost

$config[ads_kvadrat] not found

Week 0, continued

Week 0, continued
Anonim

Kada je riječ o identificiranju egzistencijalnih prijetnji koje predstavljaju tehnološke inovacije, popularna mašta poziva na vizije terminator, Matrica, i Ja, Robot - distopije kojima upravljaju roboti robota koji masovno iskorištavaju i istrebljuju ljude. U tim spekulativnim budućnostima, kombinacija super-inteligencije i zlih namjera dovodi računala do uništenja ili porobljavanja ljudske rase.

Međutim, nova studija sugerira da će to biti banalna primjena A.I. to će dovesti do ozbiljnih društvenih posljedica u sljedećih nekoliko godina. Izvješće - „Zlonamjerna upotreba umjetne inteligencije“ - čiji su autori 26 istraživača i znanstvenika iz elitnih sveučilišta i tehnički orijentiranih istraživačkih centara, opisuje načine na koje sadašnje A.I. tehnologije ugrožavaju našu fizičku, digitalnu i političku sigurnost. Kako bi se njihova studija usredotočila, istraživačka skupina je samo promatrala tehnologiju koja već postoji ili će se vjerojatno dogoditi u sljedećih pet godina.

Što je studija otkrila: A. I. sustavi će vjerojatno proširiti postojeće prijetnje, uvesti nove i promijeniti njihov karakter. Teza izvješća je da će tehnološka dostignuća pojedine nedjela učiniti lakšim i vrijednijim. Istraživači tvrde da poboljšanja u A.I. smanjit će količinu resursa i stručnosti potrebnih za provedbu nekih kibernetičkih napada, čime će se učinkovito smanjiti prepreke za kriminal:

Troškovi napada mogu se smanjiti skalabilnim korištenjem AI sustava za izvršavanje zadataka koji bi obično zahtijevali ljudski rad, inteligenciju i stručnost. Prirodni učinak bio bi proširiti skup aktera koji mogu izvršiti određene napade, brzinu kojom mogu izvršiti te napade i skup potencijalnih ciljeva.

Izvješće daje četiri preporuke:

1 - Donositelji politika trebaju blisko surađivati ​​s tehničkim istraživačima kako bi istražili, spriječili i ublažili potencijalne zlonamjerne uporabe AI.

2. Istraživači i inženjeri umjetne inteligencije trebali bi ozbiljno shvatiti prirodu svoga rada s dvojnom namjenom, dopuštajući pogrešno povezana pitanja utjecati na istraživačke prioritete i norme, te proaktivno doprijeti do relevantnih aktera kada se mogu predvidjeti štetne primjene.

3 - Najbolje bi se prakse trebale utvrditi u područjima istraživanja s zrelijim metodama za rješavanje problema dvojne namjene, kao što je računalna sigurnost i uvezene u slučaju AI.

4 - Aktivno nastojati proširiti raspon dionika i stručnjaka za domene koji su uključeni u rasprave o tim izazovima

Kako A.I. trenutne prevare mogu učiniti pametnijima: Naprimjer, napadi krađe identiteta, u kojima se umjetnici prevaruju kao prijatelj prijatelja, član obitelji ili kolega kako bi stekli povjerenje i izvukli informacije i novac, već su prijetnja. Ali danas zahtijevaju značajno trošenje vremena, energije i stručnosti. Kao A.I. sustavi povećavaju u sofisticiranosti, neke aktivnosti potrebne za napad podvodnim phishingom, kao što je prikupljanje informacija o ciljanju, mogu biti automatizirane. Fišer bi tada mogao uložiti znatno manje energije u svaki zahvat i ciljati više ljudi.

A ako scammers počne integrirati A.I. u njihovom online napadu, može postati nemoguće razlikovati stvarnost od simulacije. "Kako se AI razvija dalje, uvjerljivi chatboti mogu izazvati ljudsko povjerenje angažiranjem ljudi u duljim dijalozima, a možda i vizualno maskirati se kao druga osoba u video chatu", navodi se u izvješću.

Već smo vidjeli posljedice strojno generiranog videozapisa u obliku Deepfakesa. Kako te tehnologije postaju pristupačnije i jednostavnije za korištenje, istraživači se brinu da će loši glumci širiti izmišljene fotografije, videozapise i audio datoteke. To bi moglo rezultirati vrlo uspješnim kampanjama klevete s političkim posljedicama.

Iza tipkovnice: Potencijalna zlouporaba nije ograničena na internet. Kako se krećemo prema usvajanju autonomnih vozila, hakeri bi mogli primijeniti adverzijalne primjere kako bi zavarali automobile koji se sami voze u pogrešnom shvaćanju okoline. "Slika znaka za zaustavljanje s nekoliko piksela promijenila se na specifične načine, koje bi ljudi lako prepoznali kao sliku stop znaka, ipak bi se sustav AI mogao pogrešno klasificirati kao nešto sasvim drugo", navodi se u izvješću.

Druge prijetnje uključuju autonomne bespilotne letjelice s integriranim softverom za prepoznavanje lica za svrhe ciljanja, koordinirane DOS napade koji oponašaju ljudsko ponašanje i automatizirane, hiper personalizirane kampanje dezinformacije.

U izvješću se preporučuje da istraživači razmotre moguće zlonamjerne primjene A.I. tijekom razvoja tih tehnologija. Ako se ne uspostave adekvatne obrambene mjere, možda već imamo tehnologiju za uništavanje čovječanstva, a nisu potrebni roboti ubojice.

$config[ads_kvadrat] not found