Googlebot har inte åtkomst till CSS- och JS-filer
Google har skickat ut ett massmeddelande till många webbplatsägare om att det inte kan indexera sidan p.ga. blockering av JavaScript- och CSS-filer. Har du fått detta meddelande misströsta inte det finns en väldigt enkel fix. Meddelandet som skickats ser ut enligt följande: Googles system upptäckte nyligen ett problem med din startsida som påverkar hur […]
Google har skickat ut ett massmeddelande till många webbplatsägare om att det inte kan indexera sidan p.ga. blockering av JavaScript- och CSS-filer. Har du fått detta meddelande misströsta inte det finns en väldigt enkel fix.
Meddelandet som skickats ser ut enligt följande:
Googles system upptäckte nyligen ett problem med din startsida som påverkar hur bra våra algoritmer renderar och indexerar ditt innehåll. Detta handlar i synnerhet om att Googlebot inte har åtkomst till dina JavaScript- och/eller CSS-filer på grund av begränsningar i robots.txt-filen. De här filerna hjälper Google att förstå att webbplatsen fungerar som den ska. Om åtkomsten till dessa tillgångar blockeras kan det därför leda till sämre placeringar än nödvändigt.
Google skrev in i sina riktlinjer (i oktobober 2014) att man inte bör blockera css-filer, enligt mig tro jag det främst bero på att Google ska kunna bedöma om din webbplats är mobilanpassad eller inte. Enklaste sättet för att rätta till detta är att man inte blockera i robots.txt några mappar som innehåller CSS-filer eller Javascript. Jag listat upp några vanliga exempel som man kan letar efter i sin robots.txt och ta bort.
WordPress brukar lägga till i robots.txt
Disallow: /wp-content/
Joomla brukar lägga till i robots.txt
Disallow: /templates/
Andra exempel på blockeringar i robots.txt
Disallow: / css $ *
Disallow: / JS $ *
För att veta exakt vilka mappar som innehåller css och .js filer kan man titta under ‘Google index’ >> ‘Blockerade Resurser’ i Google Search Consol. Här listas alla sidor som blockeras av robots.txt. Letar upp css filer och .js filer och ta bort blockeringen från robots.txt.
När man tagit bort blockeringar i robots.txt bör man även trigga en ny genomsökning av webbplatsen. Går till ‘Genomsökningsåtgärden’ och välj ‘Hämta som Google’ i Google Search Console.
ändra från Desktop till Mobil: smartphone och tryck på ‘hämta och rendera’. Vänta en liten stund, tryck sen på den på ‘Ange för indexeringen’. Nu kommer Google att crawlar igenom din webbplats igen och problemet är avhjälpt.