Merkelova: Amerika ima snažne interese da drži vojne baze u Nemačkoj
Svatko na internetu se dobro zabavljao s Tayom, Microsoftovim Twitterovim robotom koji je u nekoliko sati postao rasistički holivustski negativac (a onda se vratio i ponovno to učinio). Tvrtka je stvorila poklopac za odnose s javnošću - više incidenta nego katastrofa - dok je javnosti dala lekciju o prednostima i manama strojnog učenja: Automatizacija može ubrzati obrasce na fascinantan učinak, ali rezultati će se predvidljivo teško predvidjeti,
Kao što je često slučaj, vojska je rano usvojila tehnologiju automatizacije. To je - jedno vrijeme - vodilo naplatu prema strojnom učenju i također očajnički nastojalo držati korak. Jedno od glavnih područja za fokusiranje Pentagona su autonomni roboti i kako će se udružiti s ljudima - primjerice, robot krila u stilu R2D2. No, ovaj tjedan, zamjenik ministra obrane Robert Work istaknuo je još jedan zadatak za A.I.: skraćivanje podataka iz otvorenih izvora.
"Potpuno smo sigurni da će nam korištenje strojeva za dubinsko učenje omogućiti bolje razumijevanje ISIL-a kao mreže i bolje razumijevanje o tome kako ga precizno usmjeriti i dovesti do njenog poraza", rekao je tajnik. DoD web stranica. Prema tom računu, Work, koji je govorio na događaju u organizaciji Washington Post, dok je gledao kako Silicon Valley tehnološka tvrtka demonstrira "stroj koji je uzeo podatke iz Twittera, Instagrama i mnogih drugih javnih izvora kako bi pokazao pucanje u zrakoplovu Malezija u srpnju 2014. u realnom vremenu".
Privatne tvrtke i policija dugo vremena pokušavaju smisliti „velike podatke“. Ali vojska ima prednost: resurs. Također, imaju pristup povjerljivim materijalima.
Američka vlada izgleda da je spremna kladiti se da softverski algoritmi mogu razvrstati ogromne količine podataka kako bi identificirali ciljeve ISIS-a koji bi im inače izmakle, te otkrili i poremetili parcele prije nego što ih planeri uspiju izvesti. Vlada već pokušava proučiti društvene medije kako bi predvidjela veličinu internetskih prosvjeda. Nema sumnje da će strojno učenje dati inteligentnim analitičarima sve veću moć da shvate bogatstvo dostupnih informacija u svijetu. Ali kada ta inteligencija postane temelj na kojem se poduzima smrtonosni štrajk, etička pitanja postaju složenija, čak i ako se čine izravnima.
Iako je Radilo brzo ustvrdilo da Pentagon neće “delegirati smrtonosnu vlast stroju”, što ostaje kraj igre. U međuvremenu, ljudi će ostati "u petlji", kao što ide žargon. No, kao što svatko tko je pogledao iPhone za vremensku prognozu kad stoji pokraj prozora zna, odnosi koje imamo s našim uređajima i softverom nisu jednostavni. Problematično smo lakovjerni i lako ometeni pitanjima korisničkog sučelja.
"Automatska pristranost", tendencija da se ljudi odgađaju prema strojevima, predstavlja jasnu i sve prisutniju opasnost. Primjer za ilustraciju ovog fenomena je kada vam telefon kaže da putujete putom za koji znate da nije u redu, ali to ipak učinite, pretpostavljajući da telefon mora znati nešto što ne znate. To je čest problem u nevojnim kontekstima. Međutim, čini se da je ono što Pentagon približava, međutim, izvješća o prijetnjama sastavljena od umjetne inteligencije. Ne znamo ništa o potencijalnoj učinkovitosti ovog programa osim onog koji će ljudima biti teško provesti.
U dokumentu iz 2001. godine koji se bavi studentskim i profesionalnim pilotima i automatiziranom pristranošću, istraživači su otkrili da “u scenarijima u kojima su bile dostupne točne informacije za unakrsnu provjeru i otkrivanje automatskih anomalija, stopa pogreške približno 55% dokumentirana je u obje populacije”. da dodavanje dodatnog ljudskog suigrača nije ublažilo problem.
Slično tome, studija MIT-a iz prošle godine pomalo uznemirujuće je utvrdila da igrači računala i videoigara imaju "veću sklonost ka automatizaciji pretrpanosti". To bi moglo značiti da što više vremena provodimo gledajući u naše zaslone, više vjerujemo onome što vidimo. Opet, problem nije u sustavima koje koristimo, nego u načinu na koji ih koristimo. Krivica nije u našim zvijezdama, već u nama samima.
Veliki podaci ostaju obećavajući. Strojno učenje ostaje obećavajuće. Ali kada strojevi savjetuju ljude, rezultati su predvidljivo nepredvidivi. Da li Tay-ova transformacija u neonacističku mizoginu znači da Twitter mrzi Židove i žene? Teško je to znati, ali prilično nevjerojatno. Kada ne razumijemo proces na koji način ulazni podaci postaju rezultati, borimo se s racionalnim rješavanjem rezultata. Što stavlja Pentagon u zanimljiv položaj. Hoće li ljudi koji programiraju vojni softver za strojno učenje naručiti zračne udare? To nije način na koji lanac zapovijedanja funkcionira, ali se lanci zapovijedanja zapetljaju kada se tehnologija uključi.
'Sudbina 2' Crno oružje oružje: prikolica otkriva još više loših predmeta
Novi video iz Bungieja otkrio je hrpu novih oružja koje su ovog tjedna isporučile Black Armory u 'Destiny 2'. Neki od njih izgledaju jednako dobro, ako ne i bolje, od nekih oružja s vrhovima koje smo svi progonili prošlog tjedna. Evo pogled na četiri nova debuta.
Jesu li učenje kodiranje i učenje novog jezika ista stvar?
Nova aplikacija Lrn nema vremena niti za samoglasnike niti za trikove: učitajte je i zaronite ravno u srce njezine namjene, koja će vas naučiti kodirati. Nathan Bernard, koji je stvorio aplikaciju Coffee Tinder-for-networking, pokrenuo je krajem srpnja Lrn sa suosnivačem Chirag Jainom i Loganom Bernardom. Nisu im trebali ...
Deepfakes ne odgovara za strojno učenje - evo zašto
Do sada su ljudi upotrebljavali duboki film u pornografiji i satiri kako bi se činilo da poznate osobe rade stvari koje ne bi normalno. Međutim, tijekom sezone kampanje pojavit će se gotovo izvjesni duboki luđaci, koji navodno prikazuju kandidate koji govore stvari ili će mjesta gdje pravi kandidat neće.