IT Industrija
🔥 Najčitanije
🔥 Najčitanije
Kako bi sajt uspeo da se visoko pozicionira u rezultatima pretrage potrebno je da postoji dobra tehnička osnova za to.
Ono na šta je većina nas verovatno navikla kada se priča o optimizaciji za pretraživače (SEO) jeste da bi trebalo da pronađemo ključne reči, istražimo broj pretraga za njih, zatim istražimo konkurenciju i napišemo sadržaj koji će da ih adresira i sve će to biti dobro.
Međutim, ovo je samo jedan i to površinski deo priče o optimizaciji sajta, a za nešto više se ipak moraju zasukati rukavi i pokupiti još neke veštine.
Naravno, prvo kafa i čaša vode. Pre nego što uopšte počnemo da analiziramo sajt potrebno je da naučimo da ga gledamo očima pretraživača — što znači isključiti keširanje, prebaciti user agent na “GoogleBot” i isključiti JavaScript. U poslednjih par godina pretraživači postaju sve bolji u tumačenju linkova generisanih JavaScriptom, tako da verovatno ne postoji razlog za brigu ukoliko nešto ne ostane klikabilno, ali može postojati sumnja. JavaScript ipak može ostati uključen za neku blažu varijantu analize.
Zatim je potrebno odraditi “Crawling” sajta. Neki od alata koje bih preporučio su A1 Website Analyzer, Screaming Frog, Netpeak Spider ili čak i Xenu koji je čini mi se stariji i od termina SEO, ali se može iskoristiti na razne načine u ovu svrhu. Ideja je da se dobije lista URLova koji postoje na sajtu, njihove HTTP status kodove, naslove i druge elemente specifične za induvidualne stranice.
Prema osnovnoj sadržini, ne bi trebalo da postoje problemi koji se tiču ovog fajla, međutim ako je neko ikad čačkao nešto ovde, može se desiti da je zabranio pristup nekom folderu i samim tim onesposobio sve stranice koje se tu nalaze da se nađu na Guglu. Naravno ako zaista ne želite da se neke stranice nađu u pretrazi treba im zabraniti pristup, ali je za to bolji način onaj koji upravo sledi.
Ono što sam ovde nazvao meta direktivama se nalazi u <head> delu html koda pod meta tagovima, a konkretno mislim na meta robote:
<meta name=”robots” content=”index, follow”>
Bitne stvari su u content delu i ono što može da stoji tu je “index, noindex, follow, i nofollow”, kombinacija jednog od prva dva i jednog od druga dva. Objašnjenje:
Index – kaže “slobodno indeksiraj ovu stranicu želim je u rezultatima pretrage”
Noindex – kaže upravo suprotno: da se stranica ne indeksira
Follow – kaže “prati sve linkove koji se nalaze na ovoj stranici”
Nofollow – naravno, suprotno od Follow — “nemoj pratiti linkove na ovoj stranici”.
Meta roboti su ujedno i najbolji način da isključite bilo šta iz pretrage. Ukoliko se to uradi putem “disallow” komande u robots.txt, stranica se ipak može indeksirati, ali sa informacijom:
description for this page is not available due to robots.txt.
Ako se zabrani pristup sajtu putem robots.txt fajla, pretraživač ne može uopšte da vidi da ta stranica ne treba da bude indeksirana.
Ukratko, HTTP Status kodovi su kodovi koje web server šalje na zahtev klijenta. Svako stanje ima svoj kod od kojih ćemo neke pokriti u narednom delu teksta.
2xx — 200 znači OK, što naravno znači da je stranica pronađena i da je sve redu sa njom.
3xx — U idealnom svetu sajt bi bio savršeno isplaniran i ne bismo morali da naknadno koristimo redirekcije kako bismo ispravili stvari. Međutim, u praksi je to gotovo nemoguće i ono što možemo da uradimo je da koristimo redirekcije koje će proslediti vrednost te stranice na drugu, a to je 301. U poslednjih godinu dana govorilo se o tome da svi tipovi redirekcije tj. i 302 i 307 sada prosleđuju vrednost linkova, ali se u više navrata pokazalo da to nije u potpunosti tačno.
Dodatno, jedna vrlo česta greška je to što kad se neke stranice preusmeravaju ne obraća se pažnja na to da li je neka stranica već preusmerena na istu. Samim tim stvaraju se lančane redirekcije, koje znaju praviti probleme. Čest argument za neregulisanje lančanih redirekcija je video Matt Cuttsa u kom on govori kako Google Bot prati i do 4-5 stranica u lancu redirekcije, ali neoboriva je činjenica da čak i 301 redirekcije ne prenose 100% vrednosti linka već između 90% i 99% pa sami izračunajte na koliko to dođe posle 4 redirekcije.
4xx — obično ćete po forumima i Guglovom blogu čuti da su stranice sa 404 response kodom bezopasne po sposobnost sajta da se pozicionira u rezultatima pretrage, ali to na neki način i nije tačno. Potrebno je sagledati stvari iz drugog ugla kako bismo uočili problem. Svi linkovi koji vode do stranice koja ne postoji postaju praktično bezvredni. Samim tim, za najbolju iskorišćenost istih potrebno je odraditi permanentnu redirekciju (301) na stranicu što relevantniju nepostojećoj. Stranice sa 404kama je najbolje pronaći unutar Google Search Console nalogu za taj domen.
5xx — Response kodovi koji počinju sa 5 znače da postoji problem na serveru. Iako problem nije direktno vezan za SEO, ako vaš sajt ne postoji teško da ćete moći da se pozicionirate na bilo kojem pretraživaču.
Ovaj aspekt, nažalost, uglavnom ostaje zapostavljen i što je najgore često se misli da je struktura URLova zapravo indikator strukture iliti arhitekture sajta. Jedno veliko NE!
Najbolji način da zamislite arhitekturu svog sajta je da krenete od toga koliko je klikova zapravo potrebno da se stigne do neke stranice. Takođe, bitno je da su i stranice međusobno povezane, jer autoritet stranice opada brojem klikova potrebnim da se stigne do iste. Prirodno je da najviše linkova dolazi do početne stranice te je potrebno postarati se da se vrednost tih linkova prosleđuje na ostale stranice — što je manje klikova neophodno da bi se stiglo do stranice to je prosleđena vrednost veća. Naravno ovo nije sve kad su u pitanju linkovi i na primer neke stranice mogu dobijati više dolazećih linkova od drugih (npr. članak u odnosu na kategoriju) te se ta vrednost može dalje proslediti internim linkovanjem.
Opet, za sajtove koji koriste WordPress, postoji zaista mnogo načina da se ovo postigne, a samo neki od njih su korišćenje tagova i takozvanih breadcrumbs. Tagovi povezuju članke koji nisu nužno u istoj kategoriji i time stvaraju preko potrebnu međusobnu povezanost stranica. Dodatno tome ljudi često na blogovima stavljaju widget koji lista najčešće korišćene tagove i time podižu vrednost tih stranica.
Imajte u vidu da previše tagova dovodi do kontra efekta. Svaki tag predstavlja jednu novu stranicu, a pošto one nemaju nikakvu dodatu vrednost sem što grupišu druge stranice posle određenog broja one gube svoj značaj, jer što je više stranica bez neke dodate vrednosti to je njihova konkurentnost u pretrazi slabija, a pritom se i vrednost koju pružaju linkovi raspršuje na previše stranica. Sa druge strane breadcrumbs omogućavaju lako prelaženje sa individualnih stranica na kategoriju ili podkategoriju.
Brzina sajta je jedna od ključnih stvari koja se gleda kada pretraživači (odnosno Google) određuju šta će se prikazati pre. Neki od alata koji su dobri za ocenu brzine vašeg sajta su pre svega Google Page Speed Insights koji vam daje okvirno šta treba da se promeni kako bi se vreme potrebno za učitavanje stranice smanjilo, a za detaljniji izveštaj o tome možete ići na Pingdom Tools gde možete videti koji elementi zahtevaju više vremena kako bi se učitali tj. šta konkretno sprečava brže učitavanje sajta.
Kod koji izgleda kao
<link rel=”canonical” href=”https://www.primer.rs”>
je jedan vrlo koristan, ali nažalost često i neshvaćen elemenat. Canonical link zapravo govori pretraživaču: “sadržaj koji vidiš ovde se zapravo nalazi na ovoj stranici”.
Ako koristite WordPress i Yoast plugin, ovaj deo koda se automatski generiše tako da upućuje na stranicu na kojoj se nalazi. Razlog što je ovo korisno je na primer, ako vam neko kopira kod imaće taj canonical koji će voditi do originalne stranice, međutim u slučaju da sami kopirate neki sadržaj iz <head> na neku drugu stranicu i taj link ostaje, onesposobljavate tu novu stranicu da se nađe na višim pozicijama u pretrazi.
Najinteresantniji vid ove greške koji sam video je bio prelazak sa www na non-www gde je canonical link vodio na www dok je ta stranica bila 301 redirektovana na non-www: Mind blown.
Ovde će vam “site: ” u pretrazi biti najbolji prijatelj. Kucanjem site:mojsajt.rs u Google pretrazi dobićete listu svih stranica na tom domenu. Postoji jedan od 3 ishoda kada je u pitanju broj tih stranica:
Broj indeksovanih stranica je manji od pravog broja stranica — postoji šansa da usled tehničkih problema bot ne može da dođe do istih ili ne može da ih indeksira.
Broj stranica u rezultatima pretrage je manje-više isti od pravog broja — ovo je ono na šta zapravo ciljamo, a znači da nam je sajt prilično zdrav u tom smislu.
Broj indeksovanih stranica je veći od pravog broja stranica — postoji nekoliko slučajeva kada broj stranica u rezultatima pretrage prelazi broj pravih stranica i jedan od njih može biti dupliran sadržaj. Često se zapravo dešava da sajt pređe na SSL sertifikat, a pritom neke stranice ostanu neredirektovane. Najbolji alat za otkrivanje ovih problema je gorepomenuti Screaming Frog.
Imajte u vidu da što je veći sajt tj. što je više stranica na domenu to će broj stranica koji vam daje Google za broj rezultata biti netačniji.
Ono na šta bi trebalo da obratite pažnju jeste da li postoje stranice koje su www i stranice koje su non-www, da li postoje http i https verzije sajta kao i da li redosled rezultata zapravo ima smisla tj. da li je početna stranica prvi rezultat.
U ovom delu recenzije svakako bi trebalo da isključite JavaScript u brauzeru. Razlog tome je što kroz linkove generisane preko JavaScripta do skoro nije proticala vrednost linkova tj. PageRank i iako je sada to mnogo bolje ovaj deo je isuviše bitan da bi se prepustio slučaju te ćete isključivanjem videti šta se dešava. Globalna navigacija bi trebalo da predstavlja običnu unordered listu <ul> do koje se može doći bez ikakvog posredstva CSS-a ili JS-a.
Kada se kaže off-page analiza obično se to odnosi na analizu profila backlinkova i aktivnost na društvenim mrežama. Iako je na ovogodišnjem Danu Internet Domena Srbije Gary Ilyes iz Google-a tvrdio da ne koriste nikakve podatke društvenih mreža za pozicioniranje, odrađeno je više testova koji su pronašli neku korelaciju signala sa društvenih mreža sa boljim pozicioniranjem u rezultatima pretrage. Naravno to što postoji korelacija na znači i da je bolje pozicioniranje izazvano time, ali je bitno imati to u vidu.
Kad su u pitanju backlinkovi dva alata koja su zaista dobra za njihovu analizu su MajesticSEO i Open Site Explorer, ali ako je do ličnih preferencija uglavnom idem sa prvim. Metrike koje oni imaju su Citation Flow i Trust Flow i neki kratki uvid u njih bi bio da na Citation Flow utiče broj linkova, dok na Trust Flow autoritet istih. Oni vam mogu pomoći da pronađete loše linkove koji negativno utiču na sajt kako biste ih “neutralisali” u Google Search konzoli.
Nažalost ne postoji alat koji će vam reći koji link je doprineo tome da vas Google penalizira, ali postoje neki obrasci koje možete pratiti dok ne steknete iskustvo. Pre svega bitno je razumeti da vam “nofollow” linkovi ne pružaju apsolutno nikakvu vrednost ni štetu, ali ako vaš sajt ima 90% i više takvih linkova to se može shvatiti kao spamerski pokušaj postavljanja linkova u komentare i slično. To će se takođe manifestovati niskim trust flow-om.
Često se u SEO krugovima priča da je bitno da imate linkove sa sajtova kojima je trust flow veći od vašeg kako bi dobili vrednost, ali to nije nužno i istinito. Link sa kontekstualno dobrog ili lokalizovanog sajta sa relativno niskim trust flow-om može doneti više vrednosti od nekog drugog. Naravno ako sumnjate uvek možete proveriti sajt sa kojeg dolazi link. Ako deluje spammy sa previše reklama i sumnjivim sadržajem verovatno da ipak ne želite njihov link.
Google koristi bounce rate kao faktor pozicioniranja — zapravo, Google i ne zna koji je vaš Bounce Rate. Ono što se koristi jeste ako neko ukuca ključnu reč za koju je neka vaša stranica prva, zatim klikne na taj rezultat i nakon kratkog vremena se vrati i klikne na nešto drugo, smatra se da vaša stranica nije toliko relevantna za tu ključnu reč.
Linkovi ka drugim sajtovima “troše” Page Rank vašeg sajta – ovo je zapravo veoma Old School i linkovi ka drugim sajtovima zapravo podižu vrednost vašeg sajta time što se nadovezuju na druge resurse koji su relevantni za tu temu.
Ovaj već predugačak članak nažalost nije pokrio neke stvari koje se tiču on-page faktora kao što je sadržaj i njegova struktura kao i analize i istraživanja ključnih reči, ali ako nekoga to specifično zanima ili bila koja druga tema vezana za SEO, a neobrađena ovim člankom, možemo je pokriti u komentarima.
Objavio/la članak.
subota, 11. Mart, 2017.
Ivan
sreda, 28. Februar, 2018.
Dobar tekst nadam se da će dobiti nastavak s obzirom da se sve u SEO svetu brzo menja, jer kao što reče @Vladimir dosta ovih alata i tehnologija analiza su već zastareli. npr. alati za analizu backlinkova MajesticSEO i Open Site Explorer.... zaostaju dosta za Ahrefs.com
Vladimir
petak, 6. Oktobar, 2017.
Dosta ovih alata i tehnologija analiza su već zastareli, a Google page speed više ne treba shvatati ozbiljno za analize brzina stranica. Prvi razlog je što ne uzimaju u obzir tehnologije koje pokreće web server kao što je na primer HTTP2 gde je moguće učitavanje velikog broja resursa paralelno. U HTTP1 protokolu je u pitanju 2 resursa u isto vreme, dok kod HTTP2 to u praksi znači oko 100 resursa paralelno, a na boljem hardveru i daleko više. To opet vodi u zastarele načine programiranja gde se svi CSS i JS fajlovi kombinuju u jedan paket, koji je i teško održavati i koji rezultuje sporijim inicijalnim učitavanjem stranice. Drugo je što penalizuju to što se ne koriste CDN serveri sa učitavanje statičkih resursa, a ne uzimaju u obzir da je svaki CDN upravo SPOF (single point of failure) što treba izbegavati na svaki način. Treće je što forsiraju preveliku kompresiju slika čime se veoma gubi na kvalitetu prezentacije. Forsiraju i narazumnu kompresiju CSS i JS fajlova gde ne dozvoljavaju čak ni prisustvo copyright/info komentara, što može da prouzrokuje pravne probleme za one koji se ko pijani plota pridržavaju Google saveta. Jedinu pravu analizu možete da uradite vi sami korišćenjem dev alata u vašem pregledaču. Brzina utiče na SEO, ali Google po tom pitanju ne daje ispravne savete.
Marijan
petak, 8. Septembar, 2017.
Mislim da treba kada pricamo o SEO pomenuti brzinu sajta kao veoma bitan faktor u rangiranju sajta.Pored toga sto smanjuje bounce rate,povecava vreme provedeno na sajtu,broj pregledanih stranica...sto je jasan signal cika Google-u.Inace odlican znalacki text.Treba nam ih vise))
Dino Kukić
petak, 17. Mart, 2017.
Ćao, verovatno najbolji alat za ključne reči trenutno je keywordtool.io koji nažalost nije besplatan, ali ima sve što ti treba. Malo jeftinija varijanta bi bila Google-ov Keyword Planner, ali za detaljniji uvid ovde bi morao da pustiš AdWords kampanju — što opet ima svojih prednosti ukoliko ti je to potrebno. Čak i ako imaš kampanju od 200din dnevno dobićeš ovu opciju. Besplatno, ali pomalo nepraktično bi bilo korišćenje ekstenzije za Google Chrome Keywords Everywhere koja je zaista dobra, jer ti daje broj pretraga za ključne reči koje pretražuješ, a pritom i dodaje kolonu sa brojem pretraga u Google Search Console.
Nikola
četvrtak, 16. Mart, 2017.
Pre svega hvala na clanku. Naime zanima me koji alat moze da se koristi koja kljucna rec ima dosta pretraga (mesecno, dnevno) ?
Milos
nedelja, 12. Mart, 2017.
Lepo objasnjeno. Ja nisam bio upoznat sa ovom tematikom toliko.