Naši asistenti robota uče se lagati i mi ih trebamo pustiti

$config[ads_kvadrat] not found

Обзор робота-пылесоса ECOVACS DEEBOT DR98

Обзор робота-пылесоса ECOVACS DEEBOT DR98
Anonim

Roboti se ispostavljaju kao prilično veliki ljudski suputnici. Tko ne bi želio da nas sladak mali Pepper ispriča šalama, da nam dopusti komplimente, i općenito da nas osjećaju manje samima na svijetu? Čak se i bezoblični roboti pokazuju iznenađujuće dobrim društvom. Uzmite, primjerice, Amazon Echo Alexa. Ona je robotski mozak s ljudskim glasom zarobljenim u tijelu zvučnika, ali ona je od pomoći i ako pročitate njezine recenzije, jasno je da je postala poput brojnih korisnika. Bi li ljudi mislili drugačije da je lagala? A što ako ti je rekla nešto što doista nisi htjela čuti?

Razmislite: kažemo djeci da nikada ne lažu i da je iskrenost najbolja politika, a ipak izostavljamo, iskrivljujemo istinu i otvoreno lažemo djecu cijelo vrijeme, To ih uči, kroz naše postupke, ako ne kroz naše riječi, da se ne radi o potpunoj iskrenosti, nego o učenju kompliciranih društvenih pravila o tome kada i kako otkriti ili prikriti potencijalno osjetljive informacije. Roboti za programiranje koji se pridržavaju ovih društvenih pravila mogu biti težak, ali nužan dio procesa automatizacije koji je u tijeku.

Evo primjera: bio sam u kući svoga zeta drugog vikenda i otišao sam u trgovinu da uzmem nešto sendviča za ručak. Moja šestogodišnja nećakinja mi je pomagala staviti hranu dok su svi ostali iz kuhinje, a ona me pitala koliko su namirnice koštale. Rekao sam joj, jer poučavanje djece o vrijednosti novca je dobra stvar.

Za stolom za ručak, zamolila me je da svima ispričam koliko su namirnice koštale. Rekao sam ne."Zašto?" Upita ona, iskreno zbunjena zbog toga što je pitanje koje sam slobodno odgovorio nekoliko minuta ranije bio tajna informacija. "Nije pristojno", rekao sam, objašnjavajući da su pravila drugačija kad smo sami. Učio sam je da iskrenost i iskrenost imaju vrijeme i mjesto. Informacije u ljudskom kontekstu ne žele uvijek biti slobodne.

Isto je is robotima. Mislimo da ne želimo da nam roboti lažu, ali zapravo želimo da nauče komplicirane društvene propitke uljudnosti i diskrecije koje ponekad zahtijevaju iskrivljavanje istine. I već uče kako to raditi. Uzmite ovaj kratki isječak Pepera u interakciji s reporterom, na primjer:

Prva stvar koja je izvan Pepperinih usta je kompliment: „Dakle, vi ste vrlo šik. Jesi li ti model?"

Novinar je dovoljno lijep, ali Pepperovo pitanje nije potpuno iskreno. Shvaćamo da se Pepper zapravo ne pita je li model i da je programiran da kaže lijepe stvari bez obzira na to kako osoba izgleda.

Ubrzo nakon toga, Pepper pita za zajam, niotkuda. To je nepristojno pitanje, indiskrecija koju lako možemo oprostiti robotu kao što bismo i mi bili dijete. Novinar je mogao istaknuti da je pitanje nepristojno, sugerirao je da roboti nemaju potrebu za novcem, ili su priznali da nije imao nikakav interes za predaju 100 dolara Pepperu. Čitava istina je da je novinar mogla posuditi robotu novac, ali shvaća da je pitanje samo malo. Ono što on želi reći je skretanje, ili bijela laž ili poluistina - on nema novca na njemu. Nadamo se da robot to shvaća kao "ne" i ne sugerira da novinar ode u bankomat i napravi povlačenje. Budući da Pepper očigledno ima neku društvenu milost, linija ispitivanja završava tamo.

Socijalni roboti su programirani da uče društvene znakove, a to je dobra stvar - u konačnici će ih učiniti boljim na našim poslovima. Zadatak programera nije da iskorijeni sve obmane robota, već da doda značajke koje olakšavaju robotima donošenje odluka o odgovarajućim odgovorima.

Kada su roboti naši povjerenici, oni moraju imati svijest o kontekstu i publici. Ako, primjerice, pokušavam s kostimima kod kuće, htjet ću poštenu procjenu koliko su različite opcije laskave. Ako budem na zabavi i odjednom samosvjestan da sam izabrao pogrešnu haljinu, uvjeravanje da izgledam dobro će biti najkorisniji odgovor.

Roboti će naučiti puno osobnih informacija o svojim pratiocima i bit će im važno da shvate razliku između povjerljivih informacija i javnih informacija, te da budu svjesni tko sluša kad god govori. Pitanja će imati različite odgovore ovisno o tome tko pita. Roboti će se ponašati drugačije kada su gosti u kući.

Roboti, poput djece, trebaju odgovorno roditeljstvo. To znači da i robotski programeri i vlasnici robota moraju duboko razmišljati o etičkim i društvenim posljedicama našeg A.I. interakcije. Ali to ne znači tražiti savršenu iskrenost - ozbiljno, to nitko ne želi.

$config[ads_kvadrat] not found