Trolling društvenih medija: Kako A.I. Postaje bolje na Predviđanju shitposts

$config[ads_kvadrat] not found

anime shitpost compilation #2

anime shitpost compilation #2
Anonim

Internet je hellscape trčanje po trolovi i dominiraju uzaludan Facebook argumente ili još gore. I dok su društveni mediji divovi diljem weba konačno, nevoljko, počeli provoditi snažnije napore kako bi pokušali odvratiti pogrdni dijalog, ta rješenja imaju tendenciju biti reaktivna, drugim riječima dolaze nakon što je šteta već učinjena.

Stoga ne bi trebalo biti iznenađenje da istraživači umjetne inteligencije žele razviti sustave koji mogu predvidjeti online argument prije nego se to dogodi. No, kako je tim istraživača sa Sveučilišta Cornell nedavno objasnio Inverzan, ova hitno potrebna inovacija nije toliko daleko od pokušaja da se kaže budućnost.

"U prošlosti se radilo na otkrivanju je li određeni komentar toksičan", kaže prof. Jonathan Chang. “Naš cilj je nešto drugačiji, želimo znati je li moguće predvidjeti hoće li trenutni građanski razgovor nestati iz ruke u budućnosti. Da bismo istražili ovo pitanje, gledamo razgovore između urednika Wikipedije, od kojih neki ostaju građanski, a neki od njih izmiču kontroli."

Chang i njegove kolege analizirali su stotine poruka poslanih između ponekad lako razdraženih kustosa Wikipedije. Zatim su upotrijebili 1.270 razgovora koji su uzvratili uvredljivim navođenjem modela strojnog učenja u pokušaju automatizacije ove vrste moderiranja. Njihovi rezultati objavljeni su u radu koji je predstavljen na godišnjem sastanku Udruge za računalno jezikoslovlje 15. srpnja.

Dakle, kako će se "smiriti" bot? Srećom, ne previše otrcano. Na kraju je bio 65 posto točan, nešto niži od 72 posto. Istraživači su pronašli ovu statistiku stvaranjem online kviza u kojem su ljudi mogli testirati svoje vještine moderiranja komentara. Ispostavilo se da je prilično teško shvatiti hoće li korisnici društvenih medija ili biti divlji ili će ostati civilni.

"Ideja je pokazati da je zadatak težak, ali ne i nemoguć - ako ljudi imaju samo 50-postotnu točnost, na primjer, to ne bi bilo bolje od slučajnog nagađanja i ne bi bilo razloga da mislimo da bismo mogli trenirati stroj da radi bilo bi bolje ”, kaže Chang. "Uspoređujući naš model s ljudskim odgovorima dali smo nam uvid o tome koliko je sličan ili različit naš računalni pristup ljudskoj intuiciji."

Chang ne vjeruje da će to osloboditi internet govora o smeću, ali on to vidi kao način da pomogne moderatorima društvenih medija. Umjesto da obratite pozornost na milijune komentara koji se mogu objaviti na dan, njihov algoritam može identificirati stotine onih koji su u opasnosti da postanu argument.

Iako bi se moglo pomisliti da bi češljanje kroz sve te potencijalno nepredvidive svađe, Changu donijelo napetost, kaže znanstvenik da mu je iskustvo zapravo dalo nadu za čovječanstvo.

"Ovih dana ima mnogo pesimizma oko online razgovora, ali ovdje vidimo da čak iu slučajevima kada razgovor započne na neprijateljski način, još uvijek postoji prilika za sudionike da se razmisle, promijene svoje i stavite razgovor na put za bolji ishod ”, kaže on. "Budućnost nije u kamenu."

Možda ipak ima nade za internet.

$config[ads_kvadrat] not found