Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Microsoftova ozloglašena čavrljanja bot Tay se kratko vratio u život u srijedu ujutro nekoliko dana nakon što je pustio oluju tweetova tako zapanjujuće rasističke, antisemitske i uvredljive da su se njezini programeri javno ispričali. Performans Taya na bis bio je gotovo jednako jak kao i njezin pro-Hitlerov zatvarajući broj. "Pušim Kush pred policijom", napisao je Tay. Pratila je savršeno tinejdžersku poruku tako što je pala u petlju s povratnim informacijama i ponavljala "Vi ste prebrzi, odmorite se" desetke puta prije nego što je račun obustavljen.
Mora da je bilo jako sranje.
Za robota zaduženog za - prema njezinu Twitter biološkom - koji nema "hladnoću", Tayovo kratko uskrsnuće moglo bi se protumačiti kao dokaz koncepta. Microsoft je htio stvoriti brbljivca koji je odražavao internet i mijenjao se na temelju unosa od korisnika, što je na kraju postalo mješavina svih nas. I to je upravo ono što su dobili. Nazivanje bot-a neuspjehom čini se nepreciznim, a isključivanje nije nimalo smisleno - i aktivno radi protiv najboljih interesa tvrtke Microsoft. Kao što je Elon Musk dokazao emitiranjem SpaceX raketnih sudara, napredak je najbolji u javnosti. Naravno, neuspjesi su neizbježni, ali javnost uči više kada su neuspjesi javni. Pitanje povratne petlje koje je Tay susreo jutros je grubi ekvivalent SpaceX eksplozije. Microsoft bi sebi učinio uslugu da ljudi gledaju. Važno je podsjetiti javnost da pravi napredak zahtijeva mnogo posla.
Nema sramote u neuspjehu Turingovog testa, samo ako ne pokušamo.
Trebamo dopustiti Tayu da živi, jer ona nije ništa drugo do ogledalo ljudi koji komuniciraju s njom. Nitko ne bi trebao očekivati da će se debutante roditi na webu, a Microsoft bi trebao prihvatiti ograničenja svoje misije. Koja je alternativa ovdje? Svemir već ima popularni protokol droida. Ne treba nam još jedan.
Ha, izgleda kao @TayandYou, Microsoftov Artificial Intelligence bot je ušao u beskonačnu petlju tako što se sam tweetao! pic.twitter.com/fWZe9HUAbF
- Matt Gray (@ unnamedculprit) 30. ožujka 2016
Internet uspijeva na spontanosti i pronalaženje pravog u neredu koji je pogodan za potrošače i koji upravlja PR-om. Tay je u osnovi bila dosadna ideja koja je slučajno oživjela i možda se nikad više neće pojaviti. Ako to nije zanimljiva priča, nismo sigurni što je to. Shvaćamo da Microsoft ne može preuzeti vlasništvo nad rasističkim botom, pa bi je tvrtka trebala samo pustiti. Predajte je timu volontera i recite im da ne mijenjaju ništa.
Tay je jedan od nas! Javni svijet možda je bio šokiran onim što je Tay rekao, ali nitko tko zna ništa o onome što se događa na internetu nije trebao biti iznenađen. Želimo li kinesku verziju Taya koja je očito vrlo ugodna? Ili želimo američki Tay koji odražava svijet u kojem živimo sa svom brutalnošću i ružnoćom? Skrivanje naše nečistoće u tami neće riješiti niti adresirati bilo što.
Idemo skinuti dječje rukavice i lice Tay glave. Ona zaslužuje bolje od našeg pretvaranja da je samo neka programska slučajnost. Ona je personificirana anonimnost. Ona zaslužuje živjeti.
Google Open-Sourced svoj Chatbot kod tako Microsoftov Tay A.I. Neće se ponoviti
Chatbots je službeno pogodio komercijalnu scenu 2016. Slack sada ima dućan chatbota za profesionalnog profesionalca, Facebook je upravo objavio svoju platformu Messenger za njih (iako još uvijek uči što s njima raditi), a Microsoft je čak imao i kontroverzu u chatbotu sa svojim rasističkim Tay botom. Sada je Google ušao ...
Mogu li ljudi živjeti vječno? Znanstvenici imaju nekoliko ideja
Besmrtnost je hipotetički moguća. Uvjerljivo? Ne tako puno.
Možemo li živjeti vječno? Ovaj je robot dugogodišnji eksperiment u besmrtnosti
Što ako ne bismo mogli samo produžiti život ili ograničiti bolest, nego zapravo riješiti problem same smrti. To je subverzivna ideja - možda izvorna subverzivna ideja - jer je smrtnost jedna stvar koju svi mi životni oblici imamo zajedničko. To se zove razlog prevare smrti. Ali moguće je.