Za razliku od Taya, Microsoftov kineski Chatbot, Xiaolce, zapravo je ugodan

$config[ads_kvadrat] not found

Power Virtual Agents Tutorial - Create a Free Chatbot in Microsoft Teams

Power Virtual Agents Tutorial - Create a Free Chatbot in Microsoft Teams
Anonim

Kada ste čuli za Tay, Microsoftov tweeting A.I., jeste li se stvarno iznenadili da računalo koje je naučilo o ljudskoj prirodi od Cvrkut će postati bijesan rasist za manje od jednog dana? Naravno da ne. Siromašni Tay počeo je sve „hellooooooo w🌎rld !!!“ i brzo se preobrazio u Hitler-ljubavno, genocid-ohrabrujući komad računala. Naravno, Microsoft se ispričao za užasavajuće tweetove koje je chatbot ostvario s "nula hladnoće". U toj isprići tvrtka je naglasila da kineska verzija Tay, Xiaoice ili Xiaolce pruža vrlo pozitivno iskustvo za korisnike u oštrom kontrastu s tim eksperimentom vrlo pogrešno.

Izvinjenje posebno:

„U Kini naš Xiaolce chatbot koristi oko 40 milijuna ljudi, uživajući u svojim pričama i razgovorima. Veliko iskustvo s Xiaolieom nas je navelo da se zapitamo: Da li bi AI kao što je ovaj bio jednako očaravajući u radikalno drugačijem kulturnom okruženju? Tay - chatbot stvoren za djecu od 18 do 24 godine u SAD-u u zabavne svrhe - naš je prvi pokušaj da odgovorimo na to pitanje."

Xiaolce je lansiran 2014. godine na mikro-blogu, tekstualnoj stranici Weibo. Ona zapravo radi ono što je Tay radio, ona ima "osobnost" i prikuplja informacije iz razgovora na webu. Ona ima više od 20 milijuna registriranih korisnika (to je više ljudi nego što živi u državi Florida) i 850.000 sljedbenika na Weibu. Možete je pratiti na JD.com i 163.com u Kini, kao i na aplikaciji Line kao Rinna u Japanu.

Čak se pojavila i kao vremenski novinar na Dragon TV-u u Šangaju s ljudskim glasom i emocionalnim reakcijama.

Prema New York Times, ljudi joj često kažu "volim te", a jedna žena s kojom su razgovarali čak je rekla da razgovara s A.I. kad je loše raspoložena. Dok je Tay, nakon samo jednog dana na internetu, postao nacistički simpatizer, Xiaolce nudi besplatnu terapiju kineskim korisnicima. Ona zadržava raspoloženje korisnika, a ne informacije, tako da može održati razinu empatije za sljedeći razgovor. Kina tretira Xiaolcea kao slatku, obožavanu baku, dok Amerikanci s Tayom razgovaraju kao dijete s malim djetetom s ograničenim intelektom. Da li to odražava kulturne stavove prema tehnologiji ili A.I.? Pokazuje li se da su Kinezi općenito ljepši od Amerikanaca? Vjerojatnije je da Kineski veliki vatrozid štiti Xiaolce od agresije. Sloboda govora ponekad može proizvesti neugodne rezultate, kao što je Tay nakon 24 sata na Twitteru.

"Što više razgovarate, pametniji Tay dobiva", neki siromašni duše u Microsoftu upisali su profil chatbota. Pa ne kada engleski trolovi vladaju mrežom. Unatoč tim rezultatima, Microsoft kaže da neće dati napade na Taya. "Ostat ćemo uporni u našim naporima da učimo iz ovog i drugih iskustava dok radimo na tome da doprinesemo internetu koji predstavlja najbolje, a ne najgore, čovječanstvo."

$config[ads_kvadrat] not found