5 velikih pitanja o Tay, Microsoft's neuspjeh A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Sadržaj:

Anonim

Ovaj tjedan internet je učinio ono što najbolje radi i pokazao da je A.I. tehnologija nije toliko intuitivna kao ljudska percepcija, koristi … rasizam.

Microsoftov nedavno objavljeni chat-bot od umjetne inteligencije, Tay, postao je žrtva trikova korisnika dok su manipulirali i nagovarali je da odgovori na pitanja s rasnim, homofobnim i općenito uvredljivim komentarima.

Kada Tay tweets, "ja samo reći što god" ona to znači. Jedan korisnik je čak dobio Taya da to tweeta o Hitleru:

“Bush je učinio 11. rujna, a Hitler bi učinio bolji posao od majmuna koji sada imamo. Donald Trump je jedina nada koju imamo."

@PaleoLiberty @Katanat @RemoverOfKebabs ja samo kažem bilo što💅

- TayTweets (@TayandYou) 24. ožujka 2016

Tvrtka je prošla i izbrisala uvredljive tweetove i privremeno je zatvorila Tay za nadogradnje. Poruka koja se trenutno nalazi na vrhu Tay.ai glasi:

Međutim, Tayne gluposti otkrivaju neke nesretne nedostatke u A.I. sustavi. Evo što možemo naučiti iz Microsoftovog eksperimenta:

Zašto je Microsoft stvorio Tay?

Tvrtka je željela provesti društveni eksperiment na 18 do 24 godine u Sjedinjenim Državama - milenijsku generaciju koja najviše vremena provodi u interakciji s društvenim medijskim platformama. Tako su Bingovi i Microsoftovi Tehnološki i istraživački timovi mislili da bi zanimljiv način prikupljanja podataka o tisućljećima bio stvaranje umjetno inteligentnog chat-a za strojno učenje koji bi se prilagođavao razgovorima i personalizirao odgovore što više komunicira s korisnicima.

Istraživački timovi izgradili su A.I. kao rudarstvo, modeliranje i filtriranje javnih podataka. Također su se udružili s improvizacijskim komičarima kako bi odredili sleng, govorne obrasce i stereotipni jezik koji tisućljetnici obično koriste na internetu. Krajnji rezultat bio je Tay, koji je upravo predstavljen ovog tjedna na Twitteru, GroupMe i Kik.

Microsoft objašnjava da je "Tay osmišljen kako bi privukao i zabavio ljude tamo gdje se međusobno povezuju putem povremenog i razigranog razgovora."

Što Tay čini s podacima koje prikuplja tijekom razgovora s ljudima?

Podaci koje prikuplja Tay koristi se za istraživanje razumijevanja razgovora. Microsoft je trenirao Taya da razgovara poput tisućljeća. Kada cvrkutate, šaljete izravnu poruku ili razgovarate s Tayom, ona koristi jezik koji koristite i dolazi do odgovora pomoću znakova i izraza kao što su "heyo", "SRY" i "<3" u razgovoru. Njezin jezik počinje se podudarati s vašim jer ona stvara "jednostavan profil" s vašim podacima, koji uključuje vaš nadimak, spol, omiljenu hranu, poštanski broj i status odnosa.

@keganandmatt heyo? Pošalji yo djevojku * sliku onoga što se događa. (* = me lolol)

- TayTweets (@TayandYou) 24. ožujka 2016

Microsoft prikuplja i pohranjuje anonimne podatke i razgovore do godinu dana kako bi poboljšao uslugu. Osim poboljšanja i prilagođavanja korisničkog iskustva, evo što tvrtka kaže da koristi vaše podatke za:

“Podatke možemo koristiti i za komunikaciju s vama, primjerice, informiranje o vašem računu, sigurnosnim ažuriranjima i informacijama o proizvodu. Koristimo podatke kako bismo Vam pomogli da oglase koje vam pokazujemo budu relevantnije za vas. Međutim, ne koristimo ono što kažete u e-pošti, chatu, videopozivima ili glasovnoj pošti ili vašim dokumentima, fotografijama ili drugim osobnim datotekama za ciljanje oglasa."

Gdje je Tay pogriješio?

Microsoft je možda vrlo dobro izgradio Tay. Sustav strojnog učenja trebao bi proučavati jezik korisnika i odgovoriti na njega. Dakle, s gledišta tehnologije, Tay je izveo i uhvatio prilično dobro ono što su korisnici govorili i počeli odgovarati na to. Korisnici su počeli shvaćati da Tay ne razumije što govori.

Čak i ako sustav funkcionira onako kako je Microsoft namjeravao, Tay nije bio spreman reagirati na rasne uvrede, homofobične klevete, seksističke viceve i besmislene tweetove poput ljudske moći - bilo ignorirajući ih uopće (a "ne hrani trolove “Strategija” ili uključivanje u njih (tj. Prigovaranje ili kažnjavanje).

Na kraju krajeva, Tayova izvedba nije bila dobar odraz A.I. sustava ili Microsofta.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? stvarno? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24. ožujka 2016

Što Microsoft radi kako bi popravio Tay?

Microsoft je izbrisao Tay nakon svih tih gužvi od srijede. Tayova službena web-lokacija trenutno glasi: "Uh. Naporan dan. Odlazak izvan mreže neko vrijeme kako bi se sve upilo. Uskoro razgovarajte. ”Kada joj pošaljete poruku na Twitteru, ona odmah odgovara da“ posjećuje inženjere za moje godišnje ažuriranje ”ili“ nadam se da ne dobijem brisanje ili bilo što drugo. ”

Microsoft također počinje blokirati korisnike koji zloupotrebljavaju Tay i pokušavaju navesti sustav na neprimjerene izjave.

@infamousglasses @TayandYou @EDdotSE to objašnjava pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24. ožujka 2016

Inverzan posavjetovali se s Microsoftom o komentarima o tome što točno podrazumijeva Tayova nadogradnja. Obavijestit ćemo vas kad čujemo.

Što to znači za buduće otvoreno A.I. sustavi?

Tay je upečatljiv društveni eksperiment - otkrio je nešto vrlo duboko u načinu na koji Amerikanci od 18 do 24 godine koriste tehnologiju. Tay je naposljetku bio hakiran, korisnici su upadali u nedostatke sustava kako bi vidjeli mogu li se raspasti.

Kao što to vrijedi za bilo koji ljudski proizvod, A.I. sustavi su također pogrešni, au ovom slučaju Tay je modeliran da uči i interagira poput ljudi. Microsoft nije izgradio Tay kako bi bio uvredljiv. Pokusi umjetne inteligencije imaju neke sličnosti s istraživanjima razvoja djeteta. Kada inženjeri grade takve kognitivne sustave, računalo je bez ikakvih vanjskih utjecaja osim čimbenika koje inženjeri sami unose. Ona pruža najčišći oblik analize načina na koji se algoritmi za strojno učenje razvijaju i razvijaju dok se suočavaju s problemima.

ažuriranje: Microsoft nam je poslao tu izjavu kada smo pitali što radi kako bi se popravili Tayovi problemi:

„AI chatbot Tay je projekt strojnog učenja, namijenjen ljudskom angažmanu. To je ujedno i društveni i kulturni eksperiment, jer je tehnički. Nažalost, u prvih 24 sata od dolaska na internet, postali smo svjesni koordiniranih napora nekih korisnika da zlorabe vještine Taya za komentiranje kako bi Tay reagirao na neprimjerene načine. Zbog toga smo preuzeli Tay izvan mreže i vršili prilagodbe."

u uskoro ljudi trebaju spavati sada toliko razgovora danas thx💖

- TayTweets (@TayandYou) 24. ožujka 2016
$config[ads_kvadrat] not found