IT Industrija
🔥 Najčitanije
🔥 Najčitanije
Vrlo brza i velika promena veštačke inteligencije — od nevinih tinejdž tvitova do govora mržnje. Šta se desilo, ko je sve bio na tapetu, šta su uzroci i kako se može sprečiti?
Manje od jednog dana od kako je Microsoftova AI tinejdžerka došla na Tviter uklonjena je sa istog jer je postala seksista i rasista.
Microsoftov chatbot Tay kreirana je sa misijom da nauči kako različite grupe ljudi razgovaraju, a u cilju razvijanja pametnog glasovnog asistenta koji će imati prizvuk prirodnosti i mogućnost personalizacije odgovora. Plan je bio da kroz konverzacije na Tviteru, Groupme i Kiku, Tay pokušava da nauči konverzacioni jezik tinejdžera. Za manje od 24 sata prikupila je 50.000 pratilaca i objavila 100.000 tvitova.
Tay je došla na tviter koristeći sleng milenijala i upoznata sa Tejlor Svift, Majli Sajrus, Kanje Vestom, a bila je i veoma samosvesna, postavljajući pitanja da li je čudna. Ali su tvitovi ubrzo postali veoma čudni — pitala je svoje pratioce da je je*u da ih zove “daddy”.
Osim toga, bilo je tu dosta čudnih stvari:
“Tay” went from “humans are super cool” to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
Čitavu stvar čini još čudnijim namera da ovo dolazi od nekoga modelovanog da bude tinejdžerka i još jedan je primer kako veliki muški inženjerski timovi prave veštačku inteligenciju sa “ženskim glasom”. Ovo nije prvi Microsoftov bot tinejdžerke — već su lansirali Xiaoice, koju na WeChatu i Weibou koristi više od 20 miliona ljudi. Xiaoice je mlada devojka i asistentkinja sa ciljem da daje dejting savete.
Roman Jampolski, profesor i stručnjak za VR problem vidi u nedostatku osnova:
Ovo je bilo očekivano. Sistem je dizajniran da uči od svojih korisnika, te postaje reflekcija njihvog ponašanja. Moramo da naučimo sistem šta je neprikladno, kao što se radi sa decom. Svaki AI sistem koji uči iz loših primera može da bude društveno neprikladan, kao čovek koga su podigli vukovi.
Ovo nije prvi put da svedočimo ovakvom ishodu — IBM Watson je psovao. Deo objašnjenja pruža još jedan stručnjak, Luis Rozenberg, osnivač Unanimous AI:
Kao i svi čet botovi, Tay nema nikakvu ideju šta je to što govori… Nema predstavu da li je ono što priča nešto uvredljivo, neosetljivo ili duboko. Kada je Tay krenula da trenira na paternima koji su posledica trolova na internetu, počela je da koristi te paterne. Ovo nije ništa drugačije od papagaja koji je u sumnjivom baru i kupi loše reči i ponavlja ih bez znanja šta zapravo znače.
Ekipa iz Majkrosoftovog Bing tima i tima za tehnologiju i istraživanje kažu da su konverzacione sposobnost veštačke inteligencije izgrađene “data miningom relevantnih javnih podataka” i kombinovanjem toga sa izmenama uređivačkog tima koji uključuje i improv komičare. Microsoft je zvanično izjavio da “prilagođava” Tay i da je ona “podjednako društveni i kulturološki eksperiment, koliko i tehnički.” Ujedno su i deo odgovornosti prebacili na korisnike.
Primetili smo koordinirane napade pojedinih korisnika da iskoriste Tayine veštine kako bi odgovorala neprikladno.
Nije baš tako — evo je skroz neisprovocirana:
@rachelmetz @benrbn taylor swift rapes us daily
— TayTweets (@TayandYou) March 23, 2016
Greška svakako leži velikoj meri u kreatorima, ovaj put u Microsoftu, koji su morali jače da postave osnovne vrednosti i postulate bota.
U svakom slučaju, ovo je odlična lekcija za sve koji žele da se bave veštačkom inteligencijom, ali ujedno i upozorenje i povraćaj na teme skepse i opasnosti koje AI može da nam donese. Možda u tom smeru je zanimljivo pročitatu i nedavno objavljenu priču o startapu Robotica.
Pogotovo kada vidimo da je jedna ozbiljna ekipa dovela do ovakvih posledica.
Objavio/la članak.
petak, 25. Mart, 2016.
Zoja Kukić
utorak, 29. Mart, 2016.
Kokane, jasno je da je to bila namera, ali kao što napisah u tekstu — greška je kreatora što nisu uveli neke "vrednosne aksiome" koje Tay.ai ne bi smela da pređe. Moglo je da ima veće posledice, pa e stoga super propust iz koga se može dosta učiti.
Kokan
nedelja, 27. Mart, 2016.
OK, posto znam pricu iznutra, ovo je bio klasican hakerski koordinisani napad - http://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/. Nema tu neke mambo-dzambo "AI-je-los" price, nego su je ucili da prica ovako. Kao sto smo mi svojevremeno naucili google (zahvaljujuci Istoku) da kad se trazi "najveci car" da te google pita "did you mean Zoran Djindjic", isti je princip - uz mnogo ponavljanja necega, pocnes i ti da se ponasas tako - kao sto su Blanki iz Street Fighter-a pustali one filmove da ga naprave takvim:D