Hva er log file analysis?
Log file analysis er å analysere serverens tilgangslogger for å se nøyaktig hvilke sider Googlebot crawler, hvor ofte, hvilke statuskoder den får, og hvor lang tid sidene tar å svare – den mest nøyaktige kilden til crawl-data.
Kort forklart Google Search Console forteller deg hva Google VIL crawle. Serverloggen forteller deg hva Google FAKTISK crawlet. Hver gang Googlebot besøker en side, logges det: URL, tidspunkt, statuskode, responstid, brukeragent. Analyse av denne loggen avslører om Google crawler dine viktige sider (eller sløser tid på verdiløse), om noen sider aldri crawles, og om serveren er treg for bot-trafikk. Det er den mest avanserte tekniske SEO-analysen.
Hva betyr begrepet
Serveren logger hver forespørsel i en tilgangslogg (access log). En typisk loglinje inneholder IP-adresse (Googlebots IP-er er kjente og verifiserbare), tidspunkt (dato og klokkeslett), URL (hvilken side ble besøkt), statuskode (200, 301, 404 etc.), bytes (størrelse på respons), og brukeragent (Googlebot, Bingbot, ekte bruker).
Log file analysis for SEO filtrerer ut KUN Googlebot-trafikk og analyserer crawlingsfrekvens (hvilke sider crawles daglig vs månedlig vs aldri), statuskode-distribusjon (hvor mange 200, 301, 404, 500 får Googlebot), responstid (er noen sider trege for Googlebot), og crawl-budsjett-fordeling (brukes budsjettet på viktige eller verdiløse sider).
Verktøy er Screaming Frog Log File Analyser (dedikert, kraftig, visuell), JetOctopus (sky-basert, håndterer store logger), Botify (enterprise-løsning), og Splunk/ELK Stack (generelle loggverktøy tilpasset SEO).
Hvordan fungerer det
Analysere hva Googlebot faktisk gjør.
Serverlogg-utdrag:
66.249.66.1 [07/Mar/2026:14:23:01] "GET /ai/hva-er-chatgpt HTTP/2" 200 45023
66.249.66.1 [07/Mar/2026:14:23:03] "GET /ai/hva-er-llm HTTP/2" 200 38102
66.249.66.1 [07/Mar/2026:14:23:05] "GET /sko?farge=rod&str=42 HTTP/2" 200 22001
66.249.66.1 [07/Mar/2026:14:23:07] "GET /sko?farge=rod&str=43 HTTP/2" 200 22015
Innsikt:
→ Googlebot crawler innholdssider (bra!)
→ MEN bruker også tid på filter-URL-er (sløsing!)
→ Filter-sider bør blokkeres i robots.txt
Avansert analyse:
Topp 100 crawlede URL-er → 40 er filter-sider → 40 % crawl-waste
→ Blokker filtre → Googlebot bruker 40 % mer tid på viktige sider
Hvorfor er det viktig
Log file analysis gir innsikt du IKKE får fra Google Search Console. GSC viser hva Google rapporterer – loggen viser hva Google faktisk gjør. Forskjellen kan avsløre sider Google crawler men ikke indekserer (render-problemer), sider Google aldri crawler (orphan pages, blokkert), crawl-budsjett sløst på verdiløse sider, og serverhastighet-problemer spesifikke for bot-trafikk.
For store nettsteder (10 000+ sider) er log file analysis essensielt. For små nettsteder: Search Console er ofte tilstrekkelig.
Vanlige spørsmål
Hvor finner jeg serverlogger?
Hosting-kontrollpanel (cPanel: Raw Access Logs), Cloudflare (Enterprise), Vercel (begrenset – analytics), og dedikerte loggverktøy. Spør hosting-leverandøren.
Trenger jeg dette for et lite nettsted?
Sannsynligvis ikke – Search Console dekker behovet. For 10 000+ sider: ja, det er verdifullt.
Er Vercel-sider loggbare?
Vercel har begrenset server-logging. For log file analysis av Vercel-sider: bruk Vercel Analytics eller et tredjepartsverktøy som Logflare.
Relaterte begreper
- Crawl budget – log file avslører fordelingen
- Crawling og indeksering – det du analyserer
- Teknisk SEO – bredere kontekst
- SEO-audit – log file som del av audit
- Robots.txt – styre crawling basert på funn
Se også
Oppsummering
Log file analysis analyserer serverlogger for å se hva Googlebot faktisk gjør – hvilke sider den crawler, hvor ofte, og med hvilke statuskoder. Avslører crawl-budsjett-sløsing, orphan pages og server-problemer. Bruk Screaming Frog Log Analyser eller JetOctopus. Essensielt for store nettsteder (10 000+). For små: Search Console er nok. Det er den mest nøyaktige tekniske SEO-analysen.