Ovaj robot je naučio kako reći 'ne' ljudskim zahtjevima

$config[ads_kvadrat] not found

La Educación Prohibida (Completa)

La Educación Prohibida (Completa)
Anonim

Roboti, baš kao i ljudi, moraju naučiti kada reći "ne". Ako je zahtjev nemoguć, uzrokovao bi štetu ili bi ih odvratio od zadatka, onda je to u najboljem interesu 'bot i njegovog čovjeka. za diplomatsku ne hvala biti dio razgovora.

Ali kada bi stroj trebao govoriti? I pod kojim uvjetima? Inženjeri pokušavaju shvatiti kako usaditi taj osjećaj kako i kada prkositi naredbama u humanoidima.

Gledajte kako ovaj Nao robot odbija hodati naprijed, znajući da bi to učinilo da padne s ruba stola:

Jednostavne stvari, ali svakako bitne za djelovanje kao provjera ljudske pogreške. Istraživači Gordon Briggs i Matthias Scheutz sa Sveučilišta Tufts razvili su složen algoritam koji omogućuje robotu da procijeni što je čovjek od njega tražio, odlučiti hoće li to učiniti ili ne, i na odgovarajući način odgovoriti. Istraživanje je predstavljeno na nedavnom sastanku Udruge za promicanje umjetne inteligencije.

Robot sebi postavlja niz pitanja vezanih uz to je li zadatak sposoban. Znam li to učiniti? Jesam li to sada fizički sposoban? Jesam li to normalno fizički sposoban? Jesam li u mogućnosti to učiniti sada? Jesam li obvezan na temelju svoje društvene uloge to učiniti? Da li se time krše neki normativni principi?

Rezultat je robot koji izgleda ne samo razuman, nego i jedan dan, čak i mudar.

Primijetite kako Nao mijenja mišljenje o hodanju naprijed nakon što ga ljudsko obećanje uhvati. Bilo bi lako zamisliti drugi scenarij, gdje robot kaže: "Nema šanse, zašto bih ti vjerovao?"

No, Nao je društveno stvorenje, po dizajnu. Zadovoljiti ljude je u njegovom DNK, pa s obzirom na informaciju da ga čovjek namjerava uhvatiti, on slijepo kreće prema ponoru. Naravno, ako bi čovjek zavarao svoje povjerenje, on bi bio uhvaćen, ali ipak vjeruje. To je Naoov način.

Kako robotski drugovi postaju sofisticiraniji, inženjeri robota morat će se uhvatiti u koštac s tim pitanjima. Roboti će morati donositi odluke ne samo o očuvanju vlastite sigurnosti, već io većim etičkim pitanjima. Što ako čovjek traži robota da ubije? Da počini prijevaru? Uništiti drugog robota?

Ideja strojne etike ne može se odvojiti od umjetne inteligencije - čak će i naši automobili budućnosti bez vozača morati biti osmišljeni kako bi u naše ime donosili odluke o životu ili smrti. Taj će razgovor nužno biti složeniji nego samo isporučivati ​​naredbe.

$config[ads_kvadrat] not found