Crna kutija veštačke inteligencije — Zašto nismo sigurni o čemu AI razmišlja?

Problem crne kutije dubinskog učenja je jedan od potencijalnih kamena spoticanja razvoja veštačke inteligencije. Ipak, za neke oblasti poput medicine, nije presudno ući u srž AI algoritama, dokle god nam ne prave probleme.

Marko Pap
09/05/2017

Prošle godine, razvojni tim proizvođača čipova Nvidia je na ulice Nju Džersija pustio eksperimentalno samoupravljajuće vozilo. Dok je spolja ličilo na već viđene primere samovozećih kola, ovo vozilo se razlikovalo od samoupravljajućih vozila kompanija Google, Tesla i General Motors i pokazalo nam je moć veštačke inteligencije. Umesto da se njime upravlja pomoću instrukcija zadatih od strane inženjera ili programera, ono se oslanjalo na algoritam koji je naučio da vozi posmatrajući ljude kako voze.

Sličan poduhvat izveli su Sebastijan Trun i njegove kolege na Univerzitetu Stenford, kada su demonstrirali da je algoritam “dubinskog učenja” (eng. Deep Learning) sposoban da prepozna potencijalno kancerogene promene na koži jednako dobro kao sertifikovani dermatolog.

Pored toga što predstavljaju neverovatna tehnička dostignuća, ova dva primera su značajna iz još nekoliko razloga. Jedan od njih je da je, po samoj prirodi dubinskog učenja, način na koji su ovi algoritmi stekli tu veštinu nepoznat.

Da razjasnimo, pošto sistem dubinskog učenja podrazumeva stvaranje virtuelne neuralne mreže, koja sama donosi zaključke na osnovu prikupljenih digitalnih podataka, mi ne znamo kojom tačno logičkom sekvencom su ti zaključci doneti i ne možemo ih ispratiti, jer algoritam dubinskog učenja ne ostavlja beleške za sobom. Ne samo to, već ne možemo predvideti do kojih je još zaključaka ta neuralna mreža došla i kakve će odluke donositi na osnovu njih.

Na primer, spomenuto samoupravljajuće vozilo trenutno donosi iste odluke poput čoveka na osnovu onoga što senzori na vozilu pokupe i to je upravo ono što želimo. Ali šta ako vozilo jednom prilikom udari u drvo ili jednostavno ne krene kada se upali zeleno svetlo? Kako stvari trenutno stoje, mi nećemo znati razlog za takav vid ponašanja.

Danas je taj problem poznat pod imenom: “Problem crne kutije dubinskog učenja”. Međutim, u nekim poljima, poput medicine, taj problem ne predstavlja preveliku prepreku. Nikolson Prajs, docent na Univerzitetu u Mičiganu koji se bavi zdravstvenim pravom, upoređuje dubinsko učenje sa lekovima čija se korisna svojstva javljaju kroz nepoznate biohemijske mehanizme. Kao primer koristi litijum. Iako se tačno delovanje litijuma na ljudsko ponašanje ne razume u potpunosti, on se koristi u lečenju bipolarnog poremećaja. Primena lekova čiji je mehanizam nepoznat, zapravo, nije retka pojava. Prajs tvrdi da crna kutija neće smetati Administraciji hrane i lekova Sjedinjenih Američkih Država koja je već odobrila upotrebu jednog algoritma dubinskog učenja, DeepVentricle od Arterysa.

Dok u medicini algoritmi dubinskog učenja neometano hvataju sve veći zalet, u drugim poljima bi se mogli suočiti sa velikim pravnim preprekama. Već postoji pokret koji tvrdi da je mogućnost da se veštačka inteligencija ispituje o odlukama koje je donela fundamentalno zakonsko pravo. Od leta 2018. Evropska unija će možda zahtevati da kompanije korisnicima dostave obrazloženje odluke koju je doneo automatizovani sistem. Ovo je skoro pa nemoguće, jer ponekad ni inženjeri koji su kreirali taj sistem ne mogu u potpunosti da objasne zašto se tako ponaša.

Ta činjenica podiže mnoga pitanja. To bi možda značilo da bismo se daljim unapređivanjem veštačke inteligencije i dubinskog učenja obavezali na takozvani “leap-of-faith” pristup. Kako sposobnosti dubinskog učenja budu napredovale, biće nam sve teže da otvorimo crnu kutiju te ćemo morati da verujemo sistemima čije funkcionisanje neće u potpunosti biti predočeno.

Međutim, postoje timovi koji se bave ovim problemom. Na primer, grupa sa Univerziteta Chongqing je poboljšala sposobnosti TREPAN algoritma, koji služi za izvlačenje pravila funkcionisanja iz neuralnih mreža i razloži ih na osnovne činioce. TREPAN algoritam mapira ulazne i izlazne signale neuralne mreže i na osnovu njih pokušava da razjasni kako je neuralna mreža donela datu odluku u formi if/then pravila. To nije nimalo lak posao, uzimajući u obzir razmere neuralnih mreža i činjenicu da se za svaku zasebnu promenljivu javlja mnoštvo uparenih interakcija. Da razjasnimo, neuralne mreže u osnovi čuvaju svoja pravila zasnovana na stvarnim primerima u toku rada, ali izolovanje ovih pravila i njima udruženih dejstava je težak posao.

Za sada je u redu reći da neuralne mreže nalaze svoj prostor za razvoj u poljima gde je blago nejasan pristup dozvoljen. Međutim, dok se crna kutija u potpunosti ne istraži i ne kreira standardni pribor alatki za izolovanje pravila po kojima funkcioniše, dubinsko učenje će biti ograničeno na istraživačke i konzumerske usluge.

Marko Pap

Objavio/la članak.

utorak, 9. Maj, 2017.

IT Industrija

🔥 Najčitanije

Marko Pap

utorak, 9. Maj, 2017.

@Nenad, Milan - hvala na primedbi. Članak jeste inspirisan napisima u stranim medijima uključujući navedeni MIT Tech Review, ali nije prevod niti je zasnovan samo na njemu. U samom članku su i taj i svi drugi izvori ulinkovani. Iako ideja za temu nije naša, smatramo da je vredno da domaćoj zajednici predstavljamo koncepte koje obrađujemo i prenosimo sa drugih medija, pošto je bitno da budemo u toku sa trendovima na globalnoj tech sceni.

Milan

utorak, 9. Maj, 2017.

Izađe članak na poznatijim tech sajtovima, vi sačekate malo, uzmete ideju o čemu da pišete i plasirate ovde. Tretirajte malo bolje vašu publiku

Nenad

utorak, 9. Maj, 2017.

Ne bi bilo na odmet ostaviti i link odakle je tekst uzet/preveden. Evo odakle: https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/