Hvad er Crawling?
Crawling er processen hvor søgemaskiner besøger og læser sider på internettet via links for at opdage og indsamle indhold.
Crawling er den proces, hvor søgemaskiner som Google sender automatiserede programmer (kaldet crawlere, spiders eller bots) ud for at besøge og læse websider. Googlebot følger links fra side til side og indsamler information om hvert stykke indhold, det finder. Crawling er det første skridt i at gøre dit indhold synligt i søgeresultaterne.
Hvorfor er crawling vigtig for SEO?
Hvis Googlebot ikke kan crawle dine sider, kan de heller ikke indekseres eller vises i søgeresultaterne. Det er derfor afgørende at sikre, at dine vigtigste sider er tilgængelige for crawlere. Store sites med tusindvis af sider skal desuden forvalte deres "crawl budget" — det antal sider Google crawler pr. besøg — for at sikre, at de vigtigste sider prioriteres.
Hvordan fungerer crawling?
Googlebot starter med en liste af kendte URL'er og følger derefter links på disse sider for at opdage nye URL'er. Processen fungerer således:
- Opdagelse: Googlebot finder nye URL'er via links, sitemaps eller direkte indsendelse
- Hentning: Botten anmoder om sidens HTML og ressourcer
- Parsing: HTML'en analyseres, og links udtrækkes til fremtidig crawling
- Rendering: JavaScript eksekveres for at se det endelige indhold
Sådan optimerer du for crawling
Opret og vedligehold et XML-sitemap, der lister alle vigtige sider. Brug robots.txt til at blokere sider, der ikke skal crawles (f.eks. admin-sider, duplikater). Sørg for en flad sitestruktur, hvor alle vigtige sider er tilgængelige inden for 3-4 klik fra forsiden. Fix broken links og redirect-kæder.
Almindelige fejl
En kritisk fejl er utilsigtet at blokere vigtige sider i robots.txt. En anden fejl er at have orphan pages — sider uden interne links, som Googlebot aldrig opdager. Redirect-kæder og loops spilder også crawl budget.
Praktisk tip
Check Google Search Console's "Crawl Stats" rapport for at forstå, hvordan Googlebot interagerer med dit site. Brug URL-inspektionsværktøjet til at teste, om specifikke sider kan crawles og indekseres korrekt. Overvej at bruge Screaming Frog til at simulere en crawl af hele dit site.