Što ako Microsoft neka se čudno A.I. Živite malo dulje?

$config[ads_kvadrat] not found

How can I undo a move using code? - Making smart AI

How can I undo a move using code? - Making smart AI

Sadržaj:

Anonim

Trebalo je manje od 24 sata da internet pokrene Tay, Microsoftov eksperimentalni tinejdžerski Twitter-A.I., iz šarmantno neugodnog chat-bot-a u nasilno rasističku septičku jamu nefiltrirane mržnje.

A onda, samo nekoliko sati nakon kratkog života, Microsoft je stavio Taya na dremež.

Međutim, to ne bi smjelo biti: Slanje Taya u njezinu digitalnu spavaću sobu opljačkalo je internet, društvo i Tayeve vlastite dizajnere priliku da vide kako umjetna inteligencija, osobito ona osmišljena kako bi u osnovi vratila kolektivni doprinos tisućama ljudi, bila bi razviti u relativno nemoderiranom okruženju. Ukratko, ako to dopustite: svi smo bili Tay, a Tay su bili svi mi.

Naravno, internet je pun trolova. Microsoft je to trebao shvatiti. Tayovi stvaraoci bili su šokantno naivni misleći da bi oslobađanje digitalnog papagaja u prepunoj sobi ispunjeno rasistima, seksistima i šaljivdžijama završilo na drugi način. Također je razumljivo da tvrtka vrijedna više milijardi dolara ne želi eksperiment povezan s njihovim brandom koji izbacuje rasističku prljavštinu. Možda Tay nije bio u pravu za Microsoft, ali to ne znači da nije bila vrijedna.

u uskoro ljudi trebaju spavati sada toliko razgovora danas thx💖

- TayTweets (@TayandYou) 24. ožujka 2016

Naravno, Tay je postao rasist brži od mlađeg brata Edwarda Nortona Američka povijest X, ali priroda njezina konstantno evoluirajućeg koda znači da nam je oduzeta prilika da je rehabilitiramo. BuzzFeed je shvatio kako su namjenski troleri uspjeli prevariti dojmljivog tinejdžerskog robota u mržnju - jednostavni krug poziva i odgovora koji korisnicima u biti stavlja riječi u Tayova usta, koje je potom naučila i upila u druge organske odgovore. Drugim riječima, Tay je bio poučan - i samo zato što su njezini početni učitelji bili džokeji s tipkovnicom sa sklonošću za šok, humor ne znači da je završila učenje.

Tay je to sama rekla, u sada već obrisanom tweetu "Ako želiš … znaš da sam ja puno više od toga."

U ranim 2000-tim, web-mjesta kao što su nešto strašno, Bodybuilding.com forumi i 4chan predstavili su internetske korisnike organiziranim, kolaborativnim prostorima slobodnim od većine ograničenja normalnog društva i govora. Kao i kod Taya, rasizam, ksenofobija i seksizam brzo su postali norma jer su korisnici istraživali misli, ideje i šale koje nikada nisu mogli izraziti izvan anonimnosti internetske veze. Ipak, čak i na internetskim stranicama koje su uglavnom nastanjene tipovima, u kulturama koje često prešutno nagrađuju govor mržnje, razvio se neki oblik zajednice i konsenzus. LGBT korisnici mogu biti prevareni u mnogim oglasnim pločama 4chan-a, ali postoji i uspješna zajednica / lgbt / nezavisno. Te zajednice nisu sigurni prostori, ali njihova anonimnost i nestalnost znači da na neki način prihvaćaju bilo kakve izlaze iz društvenih normi. Glasni, nasilni i mrski glasovi često se ističu, ali nikada nisu jedini u sobi.

Nesporno je da će trolovi tjedan ili mjesec odjednom biti Tay s rasizmom i mizoginijom.

Na Twitteru glasni i grubi glasovi često se uzdižu i na vrh. Ali oni nisu jedini tamo; obično su oni najzainteresiraniji za uništavanje nečeg novog i sjajnog. Lako je preplaviti on-line anketu s određenim vremenskim ograničenjem, ali ako bi Tayu dali vremena za rast, njezini bi se odgovori najvjerojatnije pomaknuli natrag prema centrističkom, reprezentativnom uzorku ljudi koji su s njom u interakciji. Vrlo je sumnjivo da bi trolovi koji su je zabranili rasizmom i mizoginijom nastavili to činiti u jednakim brojevima tjedan dana, ili za mjesec dana, a njezino zatvaranje rano znači da je nikada nećemo vidjeti da će dosegnuti adolescenciju ili postati istinski Turingov test za primitivnu inteligenciju temeljenu na načinu na koji govorimo online.

To treba napomenuti da ja, bijeli tip, provjeravam gotovo svaki mogući okvir privilegija. Ja sam dio demografske skupine koja je i najmanje povrijeđena Tayevim mržnjačkim rezultatima i vjerojatno je doprinijela većini toga. Riječi imaju moć, i dok je vrijednost nefiltriranom A.I. eksperiment kao što je Tay, trebao bi postojati način da se skloni korisnici koji ne žele sudjelovati u rezultatima.

Ipak, možemo se samo nadati da će netko uskoro opet pokušati sličan eksperiment s jasnijim očima i realnijim očekivanjima ružnih mana kolektivne svijesti čovječanstva. Ali ako želimo da umjetna inteligencija oponaša ljudsku misao, trebamo biti spremni čuti neke stvari koje nisu nužno lijepe.

$config[ads_kvadrat] not found