Semalt: Wéi weess Google Wéini (A firwat) Fir Är Websäit ze krauchen?

Google Spiders sinn sou wichteg wéi d'SOO Kampagne selwer wann Dir eng Websäit Marketing. Si krabbelen Websäiten an indexéieren Inhalt vun all de Säiten déi et kann fannen. Et leeft och nei Indexéierung op aktualiséiert Säiten um Site. Et mécht dat op enger regulärer Basis, baséiert op verschiddene Faktoren. Si enthalen, awer net limitéiert op, PageRank, Crawl Contrainten, a Linken déi op der Säit fonnt goufen. D'Unzuel vun de Zäiten déi d'Google Spiders e Site crawléiere hänkt vun engem oder méi vun dëse Faktoren of.

Eng Websäit sollt einfach duerch d'Gäscht sou wéi vun de Google Crawl Spiders navigabel sinn. Et ass de Grond firwat eng crawlfrëndlech Websäit en zousätzleche Virdeel fir eng SEO Kampagne ass. Soss ass Google net fäeg Zougang zum Inhalt ze kréien, doduerch datt de Ranking vum Site op der Sichmaschinn Ranking Säit reduzéiert.

De Ross Barber, de Client Success Manager vun Semalt , definéiert datt zwee vun de wichtegsten Indexfaktoren, déi Google hänkt fir seng Entscheedung ze beaflossen fir entweder ze lueden oder ze stoppen ze crawlen Äre Site sinn d'Verbindungszäit an den HTTP Status Code. Anerer enthalen den Disavow Kommando, "no-follow" Tags, an robots.txt.

Connect Zäit an HTTP Status Coden

De Connect Zäitfaktor bezitt sech op d'Quantitéit vun Zäit déi de Google Crawl Bot hëlt fir de Server Server an de Websäiten z'erreechen. Geschwindegkeet gëtt vu Google immens bewäert, well et ass héich Indikativ fir eng gutt Benotzererfarung. Wann d'Websäit net séier optimiséiert gëtt, gëtt de Site dann schlecht. Google Spiders maachen Versich fir d'Websäit z'erreechen, a wann d'Zäit déi Zäit fir eng Verbindung ze kreéieren méi laang ass, ginn se zréck a krabbelen se manner dacks. Ausserdeem, wann Google dréckt fir d'Websäit mat der aktueller Geschwindegkeet ze indexéieren, da kann et d'Benotzererfarung ënnerbriechen, well se säi Server wesentlech méi lues brénge kann.

Den zweeten Indexéierungsfaktor ass d'HTTP Status Coden, déi bezeechnen wéi gutt de Server op eng Ufro reagéiert fir de Site ze krauchen. Wann d'Statuscoden am 5xx Beräich sinn, da Google iwwerhëlt et fir den Taux ze stoppen oder ze verzweiwelen op deem se den aktuelle Site kräischen. Alles an der 5xx Gamme ass e Indikator fir méiglech Problemer mam Server an datt d'Äntwert op d'Ufro problematesch ka sinn. Wéinst dem Risiko fir zousätzlech Probleemer ze verursaachen, fänken Google Bot weider an féiert Indexéiere wann de Server méi erreechbar ass.

Wéini hält Google de Site duerch Crawl weider?

Google gleeft d'Benotzer déi bescht Experienz ze bidden a klasséieren Siten déi hir SEO Elementer op dës Ziler héich optimiséieren. Wéi och ëmmer, wann d'Websäit aktuell déi hei uewe genannte Probleemer weist, wäert säi Googlebot commandéieren fir et méi spéit ze crawlen. Wann d'Problemer bestoe bleiwen, verléiert de Besëtzer op eng super Geleeënheet fir Google duerch säin Inhalt ze goen an et e gutt verdéngte Rang op de Sichresultater ze ginn. Zousätzlech zu dëse Probleemer, all Zeechen vu Spam wäert de Site blockéieren fir ëmmer an de Sichresultater ze gesinn.

Wéi all déi aner Algorithmen déi Google benotzt, sinn seng Spider och automatesch. Si sinn entwéckelt fir Inhalt ze fannen, ze crawléieren an ze indexéieren op Basis vu gewësse Parameteren. Wann de Site net mat bestëmmte Praktiken entsprécht, wäert d'Indexéierung net geschéien. Et gi vill aner Faktoren involvéiert, awer vergiess ëmmer drun opmierksam ze maachen op d'Verbindungszäit an den HTTP Status Coden vun Ärem Site.