IT Industrija
🔥 Najčitanije
🔥 Najčitanije
Problem nastaje onog momenta kada se postave dve ili više fotografija na kojima su osobe bele i tamne puti, a Twitter zatim „odluči” da na početnoj stranici prikaže samo fotografije belaca.
Nakon reakcija „tviteraša” da algoritam te društvene mreže pokazuje rasnu pristrasnost time što na početnoj stranici u većem procentu favorizuje objavljivanje lica belih korisnika u odnosu na tamnopute, kompanija Twitter je odlučila da ispita i dodatno analizira ceo slučaj.
Twitter već dugo automatski „seče” fotografije kako bi optimizovao prostor na početnoj strani platforme i tako omogućio prikazivanje više slika u istom tvitu.
Međutim, problem nastaje, prema tvrdnjama „tviteraša”, onog momenta kada se postave dve ili više fotografija na kojima su osobe bele i tamne puti, a Twitter zatim „odluči” da prikaže samo fotografije belaca.
Nekoliko korisnika je tokom vikenda objavilo primere objava u kojima su prikazana lica crne i bele osobe, dok je ta platforma nakon automatskog „isecanja” fotografija uglavnom prikazivala lica belih osoba na „fidu” — pa je taj algoritam, odnosno način na koji se postavljaju fotografije, ocenjen kao „rasistički”, prenosi Guardian.
Prvi koji je ukazao na ovaj problem bio je doktorand Kolin Madlend, koji je ranije inače „uperio prst” na problem rasne pristrasnosti na platformi za video konferencije Zoom. Naime, Madlend koji je bele puti, postavio je nedavno zajedničku sliku sa kolegom Afroamerikancem na Twitteru, da bi potom ova platforma sklonila fotografiju sa početne strane i tako ostavila samo Madlendovo lice.
Nakon brojnih eksperimenata pojedinih korisnika na Twitteru, slični rezultati dobijeni su i za slike Lenija i Karla, karaktera iz serije Simpsonovi, pa čak i za zlatnog i crnog labradora.
Funkcija je bazirana na neuronskoj mreži koja koristi veštačku inteligenciju kako bi predvidela koji deo bi bio zanimljiv korisniku, a koji je potrebno ukloniti sa fotografije.
Iz tima za komunikaciju u okviru Twittera kažu da su testirali algoritam pre nego što su ga aktivirali na platformi i da tada nije pronađen nijedan dokaz o rasnoj ili rodnoj pristrasnosti, ali i da je „iz ovih primera jasno da moramo da uradimo dodatne analize”.
Ovaj nedostatak u algoritmu tehnološki direktor Twittera ocenjuje kao „veoma važno pitanje” i dodaje da su unutar kompanije urađene analize modela, ali i da je potrebno stalno unapređivanje.
Objavio/la članak.
utorak, 22. Septembar, 2020.