Spriječiti robotsku apokalipsu promišljanjem ovog A.I. Pitanje moralnosti

$config[ads_kvadrat] not found

Апокалипсис бг аудио - The Apocalypse bg audio 2002

Апокалипсис бг аудио - The Apocalypse bg audio 2002
Anonim

Postoji pitanje moralnog robotike i scenarij koji se mora odgovoriti kako bi umjetna inteligencija napredovala.

Zamislite da postoji robot koji kontrolira rudnik i shvaća da postoji kolica ispunjena s četiri ljudska rudara koji bježe niz stazu izvan kontrole. Robot može izabrati da premjesti staze i ubije jednog nesvjesnog rudara, štedeći na taj način četvorku u kolicima, ili zadržati tragove onakvima kakvi jesu i dopustiti četvorici rudara da uđu u zid i umru. Što biste izabrali? Bi li se vaš odgovor promijenio ako bi jedan rudar bio dijete? Ako ne možemo odgovoriti na to, kako programiramo robote da donesu takvu odluku?

To su bila pitanja koja su postavljali panelisti i publika na Svjetskom festivalu znanosti u New Yorku pod nazivom “Moralna matematika robota: mogu li se kodirati odluke o životu i smrti?” Većina je odlučila usmjeriti kolica prema jednom rudaru i mijenjati osobu. djetetu nije promijenilo um mnogih ispitanika, ali nije bilo jednoglasno i ljudske moralne odluke često nisu.

Bio je to jak primjer borbe s kojom će se čovječanstvo suočiti jer umjetna inteligencija nastavlja napredovati, a mi se nosimo s mogućnošću programiranja robota moralnošću.

"Koncept poput štete teško je programirati", rekao je panelist Gary Marcus, profesor psihologije i neuronskih znanosti na NYU i CEO i suosnivač Geometric Intelligence, Inc. odgovor na program i trenutno nemamo dobar set morala za robote izvan Asimovljevih zakona, koji su sadržani u filmovima kao što su iRobot.

Rekao je da je to svrha toga da se pridruži panelu, da započne razgovor o tome kako bismo trebali rješavati moral robota.

Elon Musk je ovaj tjedan razgovarao o svojoj brizi oko umjetne inteligencije, tako daleko da je rekao da svi živimo u nekoj vrsti simulacije Matrica i da bi ljudi trebali ulagati u živčanu čipku koja će se vezati za mozak i povećati ljudske kognitivne sposobnosti. Drugi futuristi poput Stephena Hawkinga upozorili su na opasnosti A.I. i ovaj tjedan Matt Damon je to isto upozorio tijekom svog uvodnog govora na MIT-u.

Drugi scenariji uključivali su militarizirane autonomne sustave oružja i kako ćemo moralno i filozofski rješavati te ljudske odluke na bojištu, kao i odluke koje autonomni automobili možda moraju donijeti u ne tako dalekoj budućnosti.

Panelisti nisu postigli konsenzus o tome što učiniti, ali su kazali kako postoje velike koristi za A.I. koji ne bi trebali biti izbačeni kroz prozor samo zato što su ta pitanja teška. Oni su predložili da se više otvoreno govori o ovim vrstama pitanja moralne rudarske osovine i možda ćemo se približiti sprečavanju robotske apokalipse.

$config[ads_kvadrat] not found