ECDL Srbija - N1 televizija
Ako ništa drugo, možete toliko za umjetnu inteligenciju: Rijetko se boje da izgledaju glupo. Ako je učenje A.I. susreće se s nečim izvan njegovog unaprijed programiranog znanja, obično neće biti sramežljivo pitati osobu s kojom se govori razjasniti.
To, međutim, može dovesti do prilično monotonog razgovora za čovjeka uključenog u razgovor s chatbotom, glasovnim asistentom ili općenito poznatom robotom: "Što je jabuka?" "Što je tiramisu?" "Što je izliječeno meso?" doslovno bilo što o hrani koju si glupi recept za chatbot?"
Dobili ste ideju, a kako istraživači sa Sveučilišta u Osaki ističu u svom nedavnom fokusu na svoj rad, ta posljednja crta ukazuje na pravi problem s kojim se suočava AI: postavljanje pitanja može biti najbolji način da nauče, ali to ne znači Mnogo se računa ako je pitanje pitanja toliko iritirajuće ili zamorno da čovjek odluta. To nije dovoljno za A.I. znati što ne zna. Također mora znati kako zadržati ljude dovoljno angažirane da popune praznine u njegovom znanju.
Njihova nedavno osmišljena metoda koristi ono što je poznato kao leksičko stjecanje putem implicitne potvrde, što je u osnovi fancy način da se kaže da umjetna inteligencija sada može sranje svoj put kroz razgovore jednako dobro kao i ljudi mogu. On izvuče ovaj trik ne tražeći od ljudi da potvrde nešto što je, nego govoreći nešto drugo što neizravno dovodi partnera za razgovor da potvrdi ili poriče instinkt A.I. je ispravan.
Pogledajmo primjer.
A.I. zna dovoljno da nagađa o podrijetlu izraza "nasi goreng", sudeći da zvuči indonezijski. Činjenica da je čovjek rekao da će pokušati kuhati ovo jelo sugerira da je to neka vrsta hrane, i tako A.I. generira tu izjavu - a ne pitanje, iako se u njoj skriva - o kvaliteti indonezijskih restorana u tom području.
A.I. vjerojatno bi mogli koristiti osnovne podatke o nedavnim otvaranjima restorana i njihovim online recenzijama kako bi utvrdili ima li ta tvrdnja smisla činjenično, možda inače govoreći nešto poput: "Ovdje stvarno treba biti više dobrih indonezijskih restorana" ako ne pronađe mnogo opcija.
Ali to je samo da bi se smanjila zbunjenost, jer bi čak i ljudsko neslaganje s izjavom i dalje odgovaralo na temeljno pitanje o tome je li nazi goreng indonezijski. Samo ako osoba pita što je A.I. govori o tome da je jasno da je stroj pogriješio.
Dakle, ako ste mislili da ste se pretvarali u razgovore na zabavama, to je nešto što samo ljudi mogu učiniti … žao mi je, automatizacija doista dolazi za sve nas.
Videozapisi pokazuju tri požara koja prolaze kroz Kaliforniju, tisuće ljudi se evakuiraju
U okrugu Ventura u Kaliforniji u četvrtak poslijepodne izbili su dva požara. Od tada, treći požar u okrugu Butte, u logorskoj vatri, odnio je živote. S vjetrovima iz Santa Ane, širenje požara na strahovito visoke stope, uz pojavu požara, pokazalo se izazovnim. Mnogi stanovnici su evakuirani.
Kako izgleda letenje kroz Mliječni put
Korisnik YouTube daveachuk je spojio više od 400.000 slika galaksije Mliječni put iz Spitzer svemirskog teleskopa u trostruki osamminutni videozapis s adekvatnom epskom glazbom benda zvanog Hammock. Slike su snimljene tijekom šestogodišnjeg razdoblja, a za snimanje je trebalo pet mjeseci. "Ovo nije CGI," dav ...
Kako uočiti lažnog prijatelja: 13 znakova da mogu lažirati, ali ne mogu se sakriti
Naučite kako uočiti lažnog prijatelja, jer želite da vaš prijatelj bude uz vašu stranu do kraja. Ali, što ako ste okruženi lažnim prijateljima?