Googlebot

2

Publicerad 06 maj 09, 11:05 av Tommy Skålberg

Googlebot är en sökrobot som används av Google för att samla dokument från Internet samt göra det sökbart via sökmotorn.

Det finns två olika versioner av Googlebot, Deepbot och Freshbot.

Deepbot

Deepbot går grundligt igenom webbplatsens olika delar och arkiverar så mycket den kan till Googles indexerare. Arbetet som Deepbot utför tar betydligt längre tid än det som Freshbot utför, vilket gör att Deepbot stannar kvar på webbplatsen under en mycket längre tid.

Freshbot

Freshbot fokuserar mer på att hitta nytt material samt kontrollerar hur enskilda sidor uppdaterats. Sidor som uppdateras frekvent får alltså fler besök från Freshbot.

För att Googlebot skall kunna hitta en sida krävs det att det finns länkar till webbplatsen. Dessa länkar måste komma från en webbsida som i sin tur är känd av Googlebot. Ett alternativ till länkar är att en användare har anmält webbplatsen till Google, för att på så sätt informera Google om att sidan existerar.

Googlebots arbetsprocesser

Arbetssättet för Googlebot kan delas in i tre olika processer:

  1. Genomsökning
  2. Indexering
  3. Visning

Genomsökning

När googles bot utför en genomsökning upptäcker den nya och uppdaterade sidor som läggs till i Googles index. Googlebot använder en algoritmisk process där ett datorprogram bestämmer vilka sidor som skall genomsökas, hur ofta det skall ske samt hur många sidor som skall hämtas.

Genomsökningen utgår från en lista av tidigare genomsökningar med adresser till webbsidor, de har kanske sedan kompletterats med webbplatskartor eller användare som skickat in sina sidor.

Indexering

Samtliga sidor som genomsöks analyseras och bearbetas för att slutligen sammanställas i ett omfattande index över alla ord som upptäcks samt var de finns på varje sida. Googlebot kontrollerar hur orden skrivs ut, vilka taggar och attribut förekommer, exempelvis H1-taggar och ALT-attribut.

Visning

När det görs en sökning på Google så letar Googlebot igenom Googles index, för att kunna presentera det mest relevanta sökresultatet för användaren. För att denna visning skall bli så korrekt som möjligt används flera avancerade algoritmer som samarbetar för att visa det som en användare letar efter.

Ett exempel är Google PageRank, som är ett mått på hur viktig en sida är baserat på antal inlänkar. Som jag nämnt i tidigare inlägg så är inte PageRank avgörande för ranking, det är endast en liten del i den avgörande processen.

Ökad trafik

Googlebot kan ibland skapa problem för webmasters eftersom de påverkar en webbsidas trafik. Det går åt en hel del bandbredd när alla sidor frekvent skall analyseras och arkiveras.

Lösningen på problemet är att man enkelt via Google Webmaster Tools kan styra genomsökningshastigheten för Googlebot, Inställningar > Genomsökningshastighet.

Man ställer in hur många förfrågningar som får ske per sekund samt vilket intervall det skall vara mellan varje förfrågan.

‘Det är lätt att fatta beslut när det inte finns dåliga alternativ’

Gilla
Gilla Älska Haha! Wow! Sad Angry

Mer Viva i din inkorg!