Semalt Expert: En guide för att förhindra att Google genomsöker gamla webbplatskartor

När din webbplats växer kommer du att göra ditt bästa för att hitta sätt att förbättra dess synlighet och trovärdighet på internet. Ibland förblir effekterna av hur våra webbplatser brukade fungera kvar, och det är här vi bör vara uppmärksamma på.

Gå till följande tips från Max Bell, kundframgångschef för Semalt , för att förhindra Google från att genomsöka gamla webbplatser.

För några veckor sedan berättade en av mina klienter att han hade en e-handelswebbplats. Det gick igenom olika förändringar: från URL-strukturen till webbplatskartan ändrades allt för att göra webbplatsen mer synlig.

Kunden märkte några förändringar i sin Google Search Console och hittade genomsökningsfel där. Vad han observerade att det fanns ett stort antal gamla och nya URL: er som genererade falsk trafik. Vissa av dem visade emellertid Access Denied 403 och Not Found 404-fel.

Min kund berättade för mig att det största problemet han hade var en gammal webbplatskarta som fanns i rotmappen. Hans webbplats använde olika Google XML Sitemaps-plugins tidigare, men nu var han beroende av WordPress SEO av Yoast för webbplatskartan. Olika gamla sitemap-plugins skapade emellertid ett röra för honom. De var närvarande i rotmappen kallad sitemap.xml.gz. Eftersom han började använda Yoast-plugins för att skapa webbplatskartor för alla inlägg, sidkategorier och taggar, behövde han inte dessa plugins längre. Tyvärr skickade personen inte sitemap.xml.gz till Google Search Console. Han hade bara skickat in sin Yoast-webbplatskarta och Google genomsökte också sina gamla webbplatskartor.

Vad ska jag krypa?

Personen raderade inte den gamla webbplatskartan från rotmappen, så det blev också indexerat. Jag kom tillbaka till honom och förklarade att en webbplatskarta bara är ett förslag på vad som bör genomsökas i sökmotorens resultat. Du tror förmodligen att om du tar bort de gamla webbplatskartorna kommer Google att hindra att genomsöka den avaktiverade URL: en, men det är inte sant. Min erfarenhet säger att Google försöker indexera varje gammal URL flera gånger om dagen och se till att 404-felet är verkliga och inte en olycka.

Googlebot kan lagra minnet av gamla och nya länkar som den hittar i webbplatskartan för din webbplats. Den besöker din webbplats med jämna mellanrum och ser till att varje sida indexeras korrekt. Googlebot försöker utvärdera om länkarna är giltiga eller ogiltiga så att besökarna inte får några problem.

Det är uppenbart att webbansvariga kommer att förvirras när antalet crawlfel ökar. Alla vill minska det till stor del. Hur informerar Google om att bortse från alla gamla webbplatskartor? Du kan göra det genom att döda alla oönskade och udda webbplatskartor. Tidigare var det enda sättet att göra det möjligt .htaccess-filerna. Tack till WordPress för att ge oss några plugins.

WordPress-webbplatserna har den här filen i sina rotmappar. Så du behöver bara komma åt FTP och aktivera de dolda filerna i cPanel. Gå till alternativet Filhanterare för att redigera den här filen enligt ditt krav. Du bör inte glömma att redigera den felaktigt kan skada din webbplats, så du bör alltid säkerhetskopiera all data.

När du har lagt till utdraget i filen försvinner alla de löpt ut URL: er från dina genomsökningsfel på kort tid. Du bör inte glömma att Google vill att du ska hålla din webbplats levande, vilket minskar risken för 404-fel.

mass gmail