Varför indexeras inte alla sidor på webbplatsen?
Har du många sidor på din webbplats, men få som blir indexerade? En felsökning är relativt enkel och snabb att göra för att komma fram till vart problemet kan ligga. Mycket handlar om tillgänglighet och unikt innehåll på webbplatsen. Tillgänglighet för sökmotorer och besökare Använder du Javascript, Flash eller formulär för navigation på din webbplats? […]
Har du många sidor på din webbplats, men få som blir indexerade? En felsökning är relativt enkel och snabb att göra för att komma fram till vart problemet kan ligga. Mycket handlar om tillgänglighet och unikt innehåll på webbplatsen.
Tillgänglighet för sökmotorer och besökare
Använder du Javascript, Flash eller formulär för navigation på din webbplats? Redan där uppstår ett problem eftersom sökmotorer har problem med javascript, Flash och formulär. Till viss del klarar exempelvis Google av detta, men det ger ingen bra länkstruktur. Jag har sett många exempel där besökaren får göra ett eller flera olika val i formulär för att navigera på webbplatsen. En lösning på det problemet är att ha vanliga textlänkar för exempelvis kategorier och underkategorier.
Unikt innehåll
Har du många sidor som har identiskt innehåll? Då kan du drabbas av duplicerat innehåll och riskera att sökmotorerna väljer att bara indexera en av sidorna. Det finns webbtjänster där du själv kan testa olika adresser för att se hur identiska dem är.
7 enkla steg för att se varför en sida inte är indexerad
1. Säkerhetsställ att sidan är indexerad.
Detta kan du göra på de flesta sökmotorer i sökfältet med kommandot site:
site:www.exempel.se
En sökning med exemplet ovan listar alla indexerade adresser för domänen www.exempel.se, där du kan se om sidan är indexerad.
2. Säkerhetsställ att sidan inte är indexerad
Detta kan du göra med kommandot site, fast genom att skriva hela sökvägen:
site:www.exempel.se/produkt/kaffekokare.html
Är inte kaffekokare.html indexerad kan du i exemplet ovan se om några sidor under www.exempel.se/produkt/ är indexerat:
site:www.exempel.se/produkt/
3. Kontrollera att inte någon robots.txt nekar sökmotorerna från att indexera sidan
Finns det en robots.txt-fil på din webbplats? Kontrollera då att den inte innehåller några direktiv som nekar sökmotorerna från att indexera sidan.
4. Kontrollera att inget META-robots nekar sökmotorer
Kolla källkoden för den sida som inte är indexerad och säkerhetsställ att ingen META-robots nekar sökmotorerna att indexera sidan. Exempel på en META-robots som nekar sökmotorerna:
<meta name='robots' content='noindex' />
5. Kontrollera felaktiga canonical-taggar
Link-taggen canonical är väldigt bra att använda för att minimera riskerna med duplicerat innehåll. Det finns dock exempel på när canonical-taggen används felaktigt. En korrekt användning av canonical-taggen på sidan kaffekokare.html skulle vara:
<link rel='canonical' href='http://www.exempel.se/produkt/kaffekokare.html' />
Medan en felaktig skulle peka på en annan adress:
<link rel='canonical' href='http://www.exempel.se/produkt/' />
I detta fall skulle sökmotorerna tro att ’http://www.exempel.se/produkt/’ är den adress som gäller och inte ’http://www.exempel.se/produkt/kaffekokare.html’, varför kaffekokare.html inte skulle bli indexerad.
6. Kontrollera duplicerat innehåll
Kontrollera att det inte finns flera adresser som visar samma innehåll som kaffekokare.html. Kontrollera även att inte fler sidor har exakt eller identiskt innehåll.
7. Kontrollera den interna länkstrukturen
Som sista punkt kan du kontrollera så att sökmotorerna kan hitta sidan genom vanliga länkar som inte är beroende av exempelvis cookies, sessions, fomulär, Javascript eller Flash.