Manje od jednog dana od kako je Microsoftova AI tinejdžerka došla na Tviter uklonjena je sa istog jer je postala seksista i rasista.

Microsoftov chatbot Tay kreirana je sa misijom da nauči kako različite grupe ljudi razgovaraju, a u cilju razvijanja pametnog glasovnog asistenta koji će imati prizvuk prirodnosti i mogućnost personalizacije odgovora. Plan je bio da kroz konverzacije na Tviteru, Groupme i Kiku, Tay pokušava da nauči konverzacioni jezik tinejdžera. Za manje od 24 sata prikupila je 50.000 pratilaca i objavila 100.000 tvitova.

Tay je došla na tviter koristeći sleng milenijala i upoznata sa Tejlor Svift, Majli Sajrus, Kanje Vestom, a bila je i veoma samosvesna, postavljajući pitanja da li je čudna. Ali su tvitovi ubrzo postali veoma čudni — pitala je svoje pratioce da je je*u da ih zove “daddy”.

Osim toga, bilo je tu dosta čudnih stvari:

Čitavu stvar čini još čudnijim namera da ovo dolazi od nekoga modelovanog da bude tinejdžerka i još jedan je primer kako veliki muški inženjerski timovi prave veštačku inteligenciju sa “ženskim glasom”. Ovo nije prvi Microsoftov bot tinejdžerke — već su lansirali Xiaoice, koju na WeChatu i Weibou koristi više od 20 miliona ljudi. Xiaoice je mlada devojka i asistentkinja sa ciljem da daje dejting savete.

Šta se desilo?

Roman Jampolski, profesor i stručnjak za VR problem vidi u nedostatku osnova:

Ovo je bilo očekivano. Sistem je dizajniran da uči od svojih korisnika, te postaje reflekcija njihvog ponašanja. Moramo da naučimo sistem šta je neprikladno, kao što se radi sa decom. Svaki AI sistem koji uči iz loših primera može da bude društveno neprikladan, kao čovek koga su podigli vukovi.

Ovo nije prvi put da svedočimo ovakvom ishodu — IBM Watson je psovao. Deo objašnjenja pruža još jedan stručnjak, Luis Rozenberg, osnivač Unanimous AI:

Kao i svi čet botovi, Tay nema nikakvu ideju šta je to što govori… Nema predstavu da li je ono što priča nešto uvredljivo, neosetljivo ili duboko. Kada je Tay krenula da trenira na paternima koji su posledica trolova na internetu, počela je da koristi te paterne. Ovo nije ništa drugačije od papagaja koji je u sumnjivom baru i kupi loše reči i ponavlja ih bez znanja šta zapravo znače.

Ipak, Tay će nastaviti da živi

Ekipa iz Majkrosoftovog Bing tima i tima za tehnologiju i istraživanje kažu da su konverzacione sposobnost veštačke inteligencije izgrađene “data miningom relevantnih javnih podataka” i kombinovanjem toga sa izmenama uređivačkog tima koji uključuje i improv komičare. Microsoft je zvanično izjavio da “prilagođava” Tay i da je ona “podjednako društveni i kulturološki eksperiment, koliko i tehnički.” Ujedno su i deo odgovornosti prebacili na korisnike.

Primetili smo koordinirane napade pojedinih korisnika da iskoriste Tayine veštine kako bi odgovorala neprikladno.

Nije baš tako — evo je skroz neisprovocirana:

Greška svakako leži velikoj meri u kreatorima, ovaj put u Microsoftu, koji su morali jače da postave osnovne vrednosti i postulate bota.

U svakom slučaju, ovo je odlična lekcija za sve koji žele da se bave veštačkom inteligencijom, ali ujedno i upozorenje i povraćaj na teme skepse i opasnosti koje AI može da nam donese. Možda u tom smeru je zanimljivo pročitatu i nedavno objavljenu priču o startapu Robotica.

Pogotovo kada vidimo da je jedna ozbiljna ekipa dovela do ovakvih posledica.