Stereotipni robot Georgia Tech je budućnost AI, a ne rasizma

$config[ads_kvadrat] not found

Shimon Robot & Friends - AI (live @TivoliVredenburg Utrecht)

Shimon Robot & Friends - AI (live @TivoliVredenburg Utrecht)
Anonim

Ušima senzibilnim za specijalitete poslije škole i raznolike seminare, to će zvučati loše, ali želimo da roboti donose brze prosudbe na temelju izgleda. Prevladavanje predrasuda je dobro, ali nesposobnost stereotipa umanjuje inteligenciju - umjetnu i inače. Dr. Alan Wagner, robotičar na Georgia Techu, glavni je zagovornik stereotipizacijske tehnologije. On tvrdi da ova vrsta logike ne mora biti primijenjena na rasu ili spol, samo situacije i ponašanja.

U ranom testu svog stereotipnog algoritma, Wagner je trenirao naivnog robota kako bi zaključio ono što je vidio. Robot je naučio i postao perceptivan, što je Wagneru omogućilo da počne kritički razmišljati o etici pretpostavki robota, osobito onih unaprijed programiranih. Razgovarao je s njim Inverzan o njegovom radu i njegovim posljedicama.

Prođite kroz način rada eksperimenta.

Robot komunicira s različitim tipovima pojedinaca - vatrogascem, EMT-om ili sličnim - ali nema prethodno iskustvo s bilo kojom od tih kategorija pojedinaca. To je, u osnovi, iskustveno učenje.

Ideja je bila pokazati da robot može koristiti perceptivne osobine pojedinca da predvidi svoje potrebe u smislu korištenja alata. Način na koji je algoritam funkcionirao, kamera robota bi uočila različite aspekte onoga što je pojedinac izgledao - njihova ujednačena boja, na primjer, jesu li imali bradu i boju kose.

Također bi im postavljala pitanja o tome kako izgledaju. Naravno, postavljanje pitanja nije ono što želite raditi na terenu, ali percepcija robota je sada toliko ograničena. Trebali smo način za pokretanje procesa o učenju o osobi. Osoba bi odabrala alat, a zatim bi robot odabrao alat, a robot bi s vremenom naučio koji alat svaka vrsta osobe preferira.

Jeste li očekivali da robot sazna da značka znači policajac ili teški reflektirajući kaput znači vatrogasac?

Mi smo to i očekivali. Ali bilo je i nekih iznenađujućih stvari.Na primjer, robot je lažno prepoznao da je brada predviđena vatrogascem - to je bilo čudno, ali kad pogledate podatke, to nije bilo iznenađujuće. Prvih nekoliko ljudi s kojima je bilo u interakciji bili su vatrogasci koji su imali brade. Stoga argumentiramo potrebu za perceptivnom raznolikošću, ideju da ako robot može vidjeti velike, široko različite tipove pojedinaca u kategoriji, to bi bolje razvilo i razumjelo kategoriju.

Biste li rekli da bi autonomni roboti trebali biti uvježbani da izglađuju ove igračke, tako da robot neće pomisliti da ako ova osoba ima bradu, on je vatrogasac?

Apsolutno. Vrlo je važno da izgladimo te stvari. Vrlo je važno da imamo te robote koji rade iz različitih skupina ljudi.

Kako bi to učenje moglo izgledati?

To bi robotu omogućilo da se usredotoči na stvari koje bolje karakteriziraju vatrogasce. Na primjer, vatrogasac možda i ne nosi jaknu. Robot bi tada primijetio druge aspekte gašenja požara, možda čizme, možda rukavice, možda kacige. Rekao bi: "U redu, ova osoba stvarno." je vatrogasac u tom okruženju."

Ako ste imali dovoljno ljudi, možda biste mogli prepoznati vatrogasca na vatri u odnosu na vatrogasca na zabavi za Noć vještica. To su suptilni perceptivni detalji, kao razlika između kvalitete vrsta uniformi ili kontekstualnih okruženja.

Pored toga što je bradu povezao s vatrogascima, koliko je ovaj algoritam bio uspješan?

Postojale su dvije stvari koje smo doista željeli pogledati: Jedna, što možete učiniti s njom? Ako roboti mogu prepoznati vatrogasce, da li to stvarno pomaže na neki način? Dokument je pokazao da vam je dopušteno suziti pretraživanje. Umjesto da gledate bradu za boju kose, tražite boju očiju ili bilo što drugo što biste mogli tražiti, možete se usredotočiti na značajke koje su doista važne. Je li osoba nosila vatrogasni kaput? To bi moglo ubrzati proces.

Još jedna stvarno kritična stvar koju smo pogledali jest, što ako je kategorija koju robot predviđa pogrešna? Kako to utječe na vas? Možete zamisliti okruženje za traganje i spašavanje može biti kaotično: možda radite u uvjetima ispunjenim dimom, robot možda neće moći sve percipirati vrlo dobro, možda ima pogrešaka. Mogli biste zamisliti lošiji slučaj, gdje robot misli da je osoba žrtva, au stvarnosti oni su vatrogasci. Pokušava spasiti vatrogasca. To bi bilo strašno. Željeli smo vidjeti gdje se provaljuje, kako se lomi, koje značajke najviše utječu i koje su različite vrste pogrešaka.

Ovaj pristup možete koristiti na različite načine - ako ne mogu vidjeti osobu, ali mogu vidjeti akcije koje rade. Ako mogu vidjeti osobu koja bira sjekiru, onda mogu predvidjeti da imaju kacigu.

Kako pristupate dobivanju robota za procjenu konteksta i predviđanje?

Pokušali smo pogledati nekoliko različitih tipova okruženja - restoran, školu i starački dom. Pokušali smo uhvatiti značajke o okolišu i objektima u okruženju, o akcijama koje osoba odabire i kako ljudi u okolini izgledaju te pokušati iskoristiti to da bi napravili mnogo društvenih predviđanja. Na primjer, u školskom okruženju ljudi podižu ruke prije razgovora. Dakle, ako vidim akciju koju ljudi podižu, koju vrstu objekata očekujem vidjeti u okruženju? Očekujem li vidjeti ploču; očekujem vidjeti stol? Očekujem da ću vidjeti djecu.

Nadamo se da ćemo koristiti te informacije. Ako robot provodi postupak evakuacije, vidjet će kakve vrste ljudi postoje i gdje bi mogli biti.

Recimo da je robot došao do vaših vrata i kaže: "Molim vas, slijedite me do izlaza." Nešto tako jednostavno kao da je zapravo vrlo složeno. Ako robot pokuca na vrata u stambenoj zgradi, nemate pojma s kime ćete komunicirati. Moglo bi biti četverogodišnje dijete, moglo bi biti 95-godišnja osoba. Voljeli bismo da robot prilagodi svoje interaktivno ponašanje tipu osobe koju vidi kako bi ih spasio. Uzimamo neke od ovih kontekstualnih lekcija i pokušavamo razviti tu aplikaciju.

Koristite li sličnu definiciju "stereotipa" za robote i ljude, ili se još nešto događa?

Izraz stereotipizacija ima negativan kontekst. Način na koji ga koristimo je jednostavno razviti kategorije ljudi i koristiti kategorijske informacije za predviđanje karakteristika osobe. Znam u psihologiji, mnogo se rada fokusira na stereotipe lica i rodne stereotipe. Ne radimo ništa slično. Je li proces isti? Ne znam. Nema pojma.

Jeste li zabrinuti da bi ljudi mogli imati zablude o vašem radu?

Prije nekoliko godina razvili smo ideju robota koji bi mogli zavarati ljude. U medijima je bilo malo pogrešne predodžbe da će to dovesti do toga da roboti kradu novčanice ljudi.

Želio bih koristiti situaciju za hitnu evakuaciju: ne želite uvijek biti potpuno iskreni s osobom u evakuaciji, zar ne? Na primjer, ako vas je netko pitao: "Je li moja obitelj u redu?" Moglo bi biti užasno ako bi robot rekao: "Ne, svi su umrli. Molim vas, slijedite me do izlaza. ”Postoje neke situacije u kojima robot zapravo mora biti kratko nepošten. Ali moje je iskustvo bilo da se ljudi osjećaju kao da pokušavamo dovesti do kraja svijeta.

Uvijek smo zainteresirani za pro-socijalne aspekte ovih tehnika ljudsko-robota. Pokušavamo pomoći ljudima, a ne biti nešto loše.

$config[ads_kvadrat] not found