Musk, Wozniak, Hawking, Ostali geniji suprotstavljaju se autonomnom oružju

$config[ads_kvadrat] not found

Stephen Hawking Warns About A.I. Development | CNBC

Stephen Hawking Warns About A.I. Development | CNBC
Anonim

Desetljećima je AK-47 bio ubojit stroj u mnogim prašnjavim kutcima svijeta jer je jeftin, trajan i sveprisutan. Ti isti čimbenici, tvrde potpisnici otvorenog pisma objavljenog u ponedjeljak iz Instituta za budućnost života, razlog su zašto su autonomna oružja prepuna opasnosti. Ali ono što razdvaja oružje od umjetne inteligencije od kalašnjikova jest da autonomni stroj može “birati i zahvaćati ciljeve bez ljudske intervencije” - što bi u pogrešnim rukama moglo počiniti zločine daleko veće od bilo kakve neproračunate puške.

Potpisnici su za njih izdvojili svoj posao. Kao ljudi, mi smo, u cjelini, mnogo bolje reagirati nego razmišljati. Veliki igrači sporo snižavaju naše nuklearno oružje (izgradnja autonomnih bespilotnih letjelica, kako se razmišlja, zahtijevalo bi djelić strojeva koji ulazi u stvaranje nuklearne bombe); na drugim mjestima, mine još uvijek stoje na desetljećima starih bojišta. Kada je tehnologija predstavljala revoluciju u ratovanju - bilo da je riječ o barutu ili pomorskim dreadnoughtima ili obogaćenom uranu - gotovo nikad ne postoji ne bila je utrka u naoružanju.

FLI pravi razliku između bespilotnih letjelica koje sada imamo, pilotirane daljinski ljudskim rukama, i robota uključenog i prepuštenog vlastitim ubojitim uređajima. Stvaranje potonjeg izazvalo bi globalnu AI utrku u naoružanju koju FLI tvrdi, a kako povijest Kalašnjikova pokazuje, ne bi se dobro završilo:

Bit će samo pitanje vremena kada će se pojaviti na crnom tržištu iu rukama terorista, diktatori koji žele bolje kontrolirati svoje stanovništvo, ratne vođe koji žele izvršiti etničko čišćenje, itd. Autonomno oružje idealno je za zadatke kao što su atentati, destabilizacija nacije, potiskujući populacije i selektivno ubijajući određenu etničku skupinu. Stoga vjerujemo da vojna utrka oružja AI ne bi bila korisna za čovječanstvo. Postoji mnogo načina na koje umjetna inteligencija može učiniti bojišta sigurnijima za ljude, osobito civile, bez stvaranja novih alata za ubijanje ljudi.

Ovo je teško govno. A imena iza ovog upozorenja nisu vaši neprekidni Skynet pukotine - oni su kreatori, inženjeri, znanstvenici i filozofi koji su pomogli oblikovati kako naša tehnologija danas izgleda. Dio imena uključuje: Appleov Steve Wozniak, Skype-ov Jaan Tallinn, fizičar Harvard Lisa Randall, tko je tko od AI istraživača i robotičara - uključujući Stuarta Russella, Barbaru J. Grosz, Toma Mitchella, Erica Horvitza - glumicu Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking je u posljednje vrijeme malo pomalo pesimistično savijen, ponavljajući i svoja predviđanja o opasnostima susreta s izvanzemaljskim životom. Također će odgovarati na pitanja o ovom pismu i budućnosti tehnologije na Redditu ovog tjedna - možda nećemo moći kontrolirati neprijateljske vanzemaljce, ali možemo staviti “odgovornost na znanstvenike na čelu te tehnologije kako bi zadržali ljudski faktor. prednja i središte njihovih inovacija. ”

Možete dodati svoje ime i na pismo.

$config[ads_kvadrat] not found