Pixelated Images nisu podudarne za prepoznavanje lica tvrtke Cornell Tech A.I.

$config[ads_kvadrat] not found

Как нейросеть Face Depixelizer, превращающая пиксельное изображение в чёткое обошлась с героями игр

Как нейросеть Face Depixelizer, превращающая пиксельное изображение в чёткое обошлась с героями игр
Anonim

Tri istraživača u Cornell Techu u New Yorku otkrili su da zamagljene i pikselirane slike ne odgovaraju umjetnoj inteligenciji. Iako su zapečene slike ljudskim očima nerazumljive, pa se čini da štite njihov osjetljivi sadržaj, neuronske mreže često mogu točno reći tko je tko na izvornoj slici.

Drugim riječima, ljudi više nisu lakmus test. Više ne možemo pitati samo je li nešto porazilo sve ljudske mozgove. A.I.s - čak i jednostavne A.I. - mogu nadmašiti ljude, pa tako i njihovo porazivanje mora uvijek biti dio jednadžbe.

Istraživanje istraživača tvrtke Cornell Tech usmjereno je na ispitivanje algoritama za očuvanje privatnosti koji zamagljuju ili pikseli određene informacije ili dijelove slika. Ranije smo pouzdani softver ili algoritme za očuvanje privatnosti implicitno smatrali sigurnim jer su informacije koje su prikrile bile sigurne jer ne ljudski znao je tko stoji iza digitalnog vela. Studija pokazuje da je to razdoblje gotovo, ai metode anonimizacije neće trajati dugo. Neuronske mreže, ispunjene ovim mjerama privatnosti, nisu neosjetljive.

Richard McPherson je dr.sc. kandidat za računalne znanosti na Sveučilištu Texas, Austin, koji je slijedio svog profesora, Vitalija Shmatikova, u Cornell Tech. Zajedno, zajedno s Rezom Shokri, pokazali su da jednostavne neuronske mreže mogu raskrinkati uobičajene tehnike zamagljivanja slike. Tehnika je relativno nesofisticirana, što otkriće čini zabrinjavajućim: to su uobičajene, pristupačne metode i oni su uspjeli pobijediti industrijske norme za skrivanje određenih poteškoća.

Neuronske mreže su velike, slojevite strukture čvorova, ili umjetnih neurona, koje oponašaju osnovnu strukturu mozga. Oni su "bazirani na pojednostavljenom razumijevanju kako neuroni rade", kaže McPherson Inverzan, "Dajte mu malo ulaza, a neuronski ili pali ili ne pali."

Oni su također sposobni "učiti" grubom definicijom pojma. Ako pokažete nečistom (potpuno neobrazovanom) čovjeku nešto “crveno”, i recite im da odaberu sve “crvene” stvari iz kantice, prvo će se boriti, ali će se s vremenom poboljšati. Isto tako i s neuronskim mrežama. Strojno učenje samo znači podučavanje računala da odabere "crvene" stvari, na primjer, iz virtualne kantice raznovrsnih stvari.

Tako su McPherson i tvrtka obučavali svoje neuronske mreže. "U našem sustavu stvaramo model - arhitekturu neuronskih mreža, strukturirani skup tih umjetnih neurona - i onda im dajemo veliku količinu zamagljenih slika", kaže on. "Na primjer, mogli bismo im dati stotinu različitih slika Carol koje su bile pikselirane, zatim stotinu različitih Bobovih slika koje su bile pikselirane."

Zatim istraživači označavaju ove pikselirane slike i pri tome govore modelu koji je na svakoj slici. Nakon obrade ovog skupa podataka, mreža funkcionalno zna kako izgleda Pixelated Bob i Pixelated Carol. "Onda mu možemo dati drugačiju sliku Boba ili Carol, bez oznake", objašnjava McPherson, "i može nagađati i reći," mislim da je to Bob s 95 posto točnosti."

Model ne rekonstruira zamagljenu sliku, ali činjenica da je u stanju pobijediti najčešće i ranije najpouzdanije metode anonimizacije, sama po sebi je uznemirujuća. "Oni su u stanju shvatiti što se zbunjuje, ali ne znaju kako je izvorno izgledalo", kaže McPherson.

No, neuronske mreže su još uvijek u mogućnosti to učiniti daleko bolje od ljudi. Kada su slike najčešće obfuscirane koristeći jednu standardnu ​​tehniku, sustav je još uvijek bio točniji od 50 posto. Za nešto manje zamagljene slike, sustav se pokazao izvanrednim, s točnošću od oko 70 posto. Norma usluge YouTube za zamućivanje lica nije uspjela; čak su i najne zamagljenije slike pobijedile neuronske mreže, što se pokazalo 96% točnim.

Druge prethodno neobrađene tehnike anonimizacije podataka, teksta i slika također su nepouzdane. "Tijekom ljeta došlo je do rada koji je gledao na anonimiziranje teksta pomoću pikselacije i zamućenja i pokazao da i oni mogu biti slomljeni", kaže McPherson. I drugi načini koji su nekad bili pouzdani mogu biti na putu da izađu iz vrata. Iako ne poznaje tehnike umetanja glasa, kao što su one koje se koriste za anonimne TV intervjue, on se ne bi iznenadio ako bi neuronske mreže mogle razbiti anonimizaciju.

McPhersonovo otkriće, dakle, dokazuje da "metode očuvanja privatnosti koje smo imali u prošlosti nisu do te mjere ušmrkale, pogotovo u modernim tehnikama strojnog učenja." Drugim riječima, mi se kodiramo u nevažne, trenirajući strojeve nadmašite nas u svim područjima.

"Kako snaga strojnog učenja raste, taj će se napredak pomaknuti u korist protivnika", napisali su istraživači.

$config[ads_kvadrat] not found