Noțiuni Elementare În SEO: Indexarea

„De ce site-ul meu nu s-a indexat?”, asta este cea mai des întâlnită întrebare pe care o primesc în ultima perioadă, în special de la tipi ce s-au apucat de curând să lucreze la vreun site. Drept urmare, cum nu pot răspunde la toate întrebările primite pe mail, m-am gândit că cel mai bine este să-i lămuresc pe cei ce au neclarități printr-un articol.

Dacă prin 2006 când m-am apucat de studiat SEO, pentru a indexa o pagină și nu un întreg site, trebuia să înscrii URL-ul respectiv manual în Google ori Yahoo, în prezent, lucrurile s-au cam schimbat datorită spammerilor ce „floodau” servere Google cu request-uri peste requesturi pentru a indexa un site cât mai rapid posibil. Bineînțeles, la vremea respectivă motoarele de căutare nu știau să sorteze sau să „citească” mai întâi paginile înainte de a le indexa și practic, orice request făcut era ca și acceptat.

Acum, treburile stau puțin diferit, motoarele de căutare fiind într-o continuă evoluție și intervenția voastră manuală de a trimite spre indexare o pagină anume, nu mai este necesară deoarece crawlerii motoarelor de căutare vor depista site-ul vostru automat. De multe ori, crawlerii pot accesa o pagină și de mai multe ori, fără a-i indexa conținutul. Cum este posibil acest lucru? Simplu. Pentru combaterea spamului, într-un test preliminar crawlerii scanează conținutul unei pagini din cadrul site-ului vostru fără a-l indexa. Practic, în acest test crawlerii vor stabili dacă pagina accesată se supune criteriilor de indexare, adică pe scurt, să nu fie o pagină de tip spam.

Bineînțeles că trecerea acestui test preliminar să zic așa, nu vă garantează și indexarea paginii respective. Practic, rezultatul pozitiv sau negativ al acestui test va clasa pagina din cadrul site-ului vostru ca fiind veritabilă, adică o va și indexa, ori suspicioasă, adică o va muta în SandBox pentru alte teste sau de tip spam, adică nu o va indexa până la noi modificări, astfel încât să se supună criteriilor Google.

În altă ordine de idei, am citit o carte excelentă scrisă de Aaron Wall ce susține că foarte multe site-uri sunt banate de motoarele de căutare înainte ca ele să fie indexate, deoarece nu trec acest test inițial. Vă recomand și vouă această carte.

În cazul în care ați trecut testul preliminar, ce se bazează exclusiv pe conținutul site-ului vostru (OnPage), urmează cel de-al doilea test, în care vă sunt analizate toate link-urile site-ului. De multe ori, site-urile nou lansate ce au un număr foarte mare de backlink-uri sunt din start considerate suspicioase și cel mai probabil, paginile țintă ale acestor backlink-uri vor fi mutate în SandBox pentru o perioadă de 30-60 de zile, pentru a vedea cum se comportă sau cum evoluează. Aici se va decide indexarea sau excluderea lor din motoarele de căutare.

Însă asta nu înseamnă că link-urile nu contează. Inițial, aceste link-uri au o valoare semnificativă deoarece scopul lor este de a valida paginile țintă în motorul de căutare, pentru a fi indexate ulterior. Ăsta este motivul pentru care vă recomand ca în cazul în care începeți un site nou, să încercați să strângeți 50-100 de backlink-uri de pe site-uri mari, stabile și bine-dezvoltate și nu să începeți cu mii de directoare web, link exchange-uri sau alte tâmpenii.

Îndată ce ați strâns aceste backlink-uri, va trebui să așteptați ca spiderii să reacceseze paginile respective pentru a le indexa sau reindexa, după caz. În cazul unui site aflat la început, fără trust în fața motoarelor de căutare, această reaccesare din partea crawlerilor poate dura și 2-3 săptămâni. În cazul reindexării unei pagini, a se înțelege o pagină actualizată, timpul necesar reindexării poate fi și de 1-2 săptămâni. De ce vă sugerez să obțineți link-uri de pe HomePage-uri?

Simplu. Pentru că este mult mai bine să obțineți un backlink de pe o pagină ce se actualizează frecvent, adică rata de accesare a crawlerilor este mult mai mare, decât de pe o pagină statică, actualizată foarte rar. Însă, chiar dacă o pagină este mult mai frecventată de crawleri decât o alta, asta nu înseamnă că valoarea link-urilor este mai mare, mai ales în cazul în care crawlerii sesizează că de pe pagina respectivă, pleacă extrem de multe link-uri externe. V-am mai vorbit despre acest raport, al link-urilor externe față de link-urile interne.

Deasemenea, pentru o indexare cât mai eficientă puteți folosi și Sitemap-uri. Eu prefer sitemap-urile HTML în favoarea celor XML pentru modurile în care pot controla textele ancoră și link-urile în sine. Mai mult de atât, puteți include aceste sitemap-uri în Robots.txt-ul vostru pentru a mări rata de accesare a sitemap-urilor de către crawleri. Cu cât mai multe accesări, cu atât mai multe șanse de validare, e simplu. Voi face referire și de această dată la cartea lui Aaron Wall, în care spune că durata medie de indexare a unui site ce nu este influențat de alți factori gen sitemap, backlink-uri etc, este de aproximativ 2 luni.

Concluzii? Aveți răbdare!
Trebuie să aveți răbdare. După cum v-am spus, paginile site-ului vostru nu pot fi indexate în 1-2 zile mai ales dacă site-ul este unul relativ nou și pot dura chiar până la 2 luni. Practic, singurul sfat pe care vi-l pot da este să aveți grijă la conținut și la actualizarea lui deoarece cu puțină răbdare, restul vin de la sine. Sper că v-am lămurit cum stă treaba cu indexarea asta.

You May Also Like