Deepfakes ne odgovara za strojno učenje - evo zašto

$config[ads_kvadrat] not found

Zmija na kamionu u Beogradu

Zmija na kamionu u Beogradu

Sadržaj:

Anonim

Novi oblik dezinformacija spreman je proširiti se online zajednicama kako se zagrijavaju srednjoročne izborne kampanje 2018. godine. Nakon pseudonimnog online računa koji je popularizirao tehniku ​​- koja je možda odabrala svoje ime, nazvali su je "dubokim kurvama", jer proces koristi tehničku metodu nazvanu "duboko učenje" - ovi lažni videozapisi izgledaju vrlo realistično.

Do sada su ljudi upotrebljavali duboki film u pornografiji i satiri kako bi se činilo da poznate osobe rade stvari koje ne bi normalno. Međutim, tijekom sezone kampanje pojavit će se gotovo izvjesni duboki luđaci, koji navodno prikazuju kandidate koji govore stvari ili će mjesta gdje pravi kandidat neće.

Budući da su ove tehnike toliko nove, ljudi imaju poteškoća s razlikom između stvarnih videozapisa i videozapisa s dubokim snimkom. Moj posao, s mojim kolegom Ming-Ching Changom i našim doktoratom. student Yuezun Li, pronašao je način da pouzdano ispriča prave videozapise iz dubokog kipova. To nije trajno rješenje, jer će se tehnologija poboljšati. Ali to je početak i nudi nadu da će računala moći pomoći ljudima da govore istinu iz fikcije.

Što je "duboka zmija", u svakom slučaju?

Izrada dubokog video snimka je poput prevođenja između jezika. Usluge kao što je Google Translate koriste strojno učenje - računalnu analizu desetaka tisuća tekstova na više jezika - kako bi otkrili obrasce upotrebe riječi koje koriste za stvaranje prijevoda.

Deepfake algoritmi rade na isti način: oni koriste vrstu sustava strojnog učenja nazvanog duboka neuronska mreža kako bi ispitali kretanje lica jedne osobe. Zatim sintetiziraju slike lica druge osobe čineći slične pokrete. Na taj način se učinkovito stvara videozapis ciljne osobe koji se pojavljuje kako bi učinio ili rekao ono što je izvorna osoba učinila.

Prije nego što mogu pravilno funkcionirati, dubokim neuronskim mrežama treba mnogo izvora informacija, kao što su fotografije osoba koje su izvor ili meta oponašanja. Što se više slika koristi za treniranje dubokog algoritma, to će biti realističnije digitalno predstavljanje.

Otkrivanje treptanja

Još uvijek postoje mane u ovom novom tipu algoritma. Jedan od njih ima veze s tim kako simulirana lica trepću - ili ne. Zdravi odrasli ljudi trepću negdje između svake dvije i 10 sekundi, a jedan treptaj traje između jedne desetine i četiri desetine sekunde. To bi bilo normalno vidjeti na videu osobe koja govori. Ali to nije ono što se događa u mnogim dubokim snimkama.

Kada se algoritam dubokog rituala obučava na slikama lica osobe, to ovisi o fotografijama koje su dostupne na internetu i koje se mogu koristiti kao podaci za obuku. Čak i za ljude koji se često fotografiraju, nekoliko slika je dostupno na internetu, pokazujući zatvorene oči. Ne samo da su takve fotografije rijetke - zato što su oči ljudi većinom otvorene - ali fotografi obično ne objavljuju slike na kojima su oči glavnih osoba zatvorene.

Bez vježbanja slika ljudi koji trepću, algoritmi dubokog pamćenja manje su vjerojatno da će stvoriti lica koja normalno trepću.Kada izračunamo ukupnu stopu treptanja i usporedimo to s prirodnim dometom, otkrili smo da likovi u videozapisima duboko trepere puno rjeđe u usporedbi sa stvarnim ljudima. Naše istraživanje koristi strojno učenje za ispitivanje otvaranja i zatvaranja oka u videozapisima.

Vidi također: Hollywood Won't Cast Cast and American Stars, ali A.I. Strojno učenje može

To nam daje inspiraciju za otkrivanje dubokih tonova. Nakon toga razvijamo metodu za otkrivanje treptanja osobe u videozapisu. Da budemo precizniji, skenira svaki kadar dotičnog videozapisa, otkriva lica u njemu, a zatim automatski pronalazi oči. Zatim se koristi druga duboka neuronska mreža kako bi se utvrdilo je li otkriveno oko otvoreno ili zatvoreno, koristeći izgled očiju, geometrijske značajke i kretanje.

Znamo da naš rad iskorištava nedostatak u vrsti dostupnih podataka za treniranje dubokoumnih algoritama. Kako bismo izbjegli pad na sličan nedostatak, sustav smo trenirali na velikoj knjižnici slika otvorenih i zatvorenih očiju. Čini se da ova metoda dobro funkcionira i kao rezultat toga postigli smo stopu otkrivanja od preko 95 posto.

To, naravno, nije posljednja riječ o otkrivanju dubokih riba. Tehnologija se ubrzano poboljšava, a konkurencija između generiranja i otkrivanja lažnih videozapisa analogna je igri šaha. Posebno, treptanje se može dodati dubokim snimkama videa tako što će se slike lica prikazati zatvorenim očima ili pomoću video sekvenci za trening. Ljudi koji žele zbuniti javnost bolje će izraditi lažne videozapise - a mi i ostali u tehnološkoj zajednici morat ćemo nastaviti tražiti načine da ih otkrijemo.

Ovaj je članak izvorno objavljen na konverzaciji Siweija Lyua. Pročitajte izvorni članak ovdje.

$config[ads_kvadrat] not found