GEO 5 min. læsetid

Forstå AI-Crawler: GPTBot, PerplexityBot og Co.

Patrick Tomforde Patrick Tomforde · Sprog: DE EN ES PT IT NL PL EL CS SV HU

GPTBot, ClaudeBot, PerplexityBot — hvem crawler din side, hvor ofte og efter hvilke regler? Et teknisk overblik over de vigtigste AI-bots i 2026.


Den, der i 2026 seriøst taler om Generative Engine Optimization, skal først forstå, hvem der egentlig tilgår deres hjemmeside. Udover den klassiske Googlebot findes der nu omkring et dusin specialiserede AI-crawlere i server-loggene — og hver af dem har egne regler, egne frekvenser og egne krav til dine sider. Vi giver dig et klart overblik over de vigtigste bots og hvad de betyder for din seo-ordliste/synlighed/">synlighed.

GPTBot: OpenAIs trænings-crawler

GPTBot er den mest kendte AI-crawler. OpenAI bruger den til at indsamle træningsdata til GPT-modelfamilien. Den identificerer sig klart i User-Agent som "GPTBot" og respekterer instruktionerne i robots.txt. Vigtigt at vide: GPTBot er ikke den eneste OpenAI-bot. Derudover findes OAI-SearchBot til ChatGPT-søgefunktionen og ChatGPT-User til direkte live-anmodninger, når en bruger henviser til en URL i en samtale. Disse tre bots har forskellige opgaver og bør behandles forskelligt.

Et teknisk vigtigt punkt: GPTBot renderer ikke JavaScript. Indhold, der kun indlæses klientside — for eksempel via React-hydration eller Vue-apps uden server-side rendering — er usynligt for GPTBot. Den, der tager ChatGPT som en discovery-kanal alvorligt, skal levere sine centrale indhold server-side. Statisk HTML, rent markup og hurtige svartider er ikke længere nice-to-haves, men hårde krav. I praksis betyder det ofte en arkitektur-beslutning: Den, der satser på moderne JavaScript-frameworks, bør konsekvent skifte til server-side rendering eller static-site generation. Den samme anbefaling gjaldt allerede for Googlebot for nogle år siden — AI-crawlere skærper presset, fordi de har endnu mindre spillerum i render-logikken end Google.

ClaudeBot: Anthropic på databesøg

Anthropic, producenten af Claude, driver med ClaudeBot en egen crawler. Også den identificerer sig klart i User-Agent og følger robots.txt. I modsætning til GPTBot er ClaudeBot sjældnere, men mere systematisk til stede i vores logfilanalyser. Anthropic lægger vægt på transparente crawling-praksisser og offentliggør regelmæssigt IP-rækker, som botten opererer fra. Det gør det lettere at skelne ClaudeBot fra falske bots, der camouflerer sig som AI-crawlere.

ClaudeBot renderer heller ikke JavaScript som standard. Den, der ønsker at bruge Claude som kildesystem, bør overholde den samme tekniske grundsætning som med GPTBot: kritiske indhold skal være i den indledende HTML-respons. Strukturerede data via JSON-LD, klare heading-hierarkier og semantisk markup hjælper ClaudeBot med at klassificere indhold korrekt og senere citere det i svar. Anthropic kommunikerer klart via sin offentlige dokumentation, hvilke stier ClaudeBot foretrækker, og hvilke User-Agents der bruges. Den, der proaktivt læser dokumentationen og tilpasser sin konfiguration derefter, er ofte måneder foran sine konkurrenter i Claude-synlighed.

PerplexityBot og live-søgekrydsere

PerplexityBot er anderledes end de to tidligere crawlere, da den primært ikke er ansvarlig for træningsdata, men for realtidsforskning, som Perplexity bruger i sin svarmaskine. Det betyder: Hver forespørgsel i Perplexity, der henter et aktuelt webdokument, går potentielt gennem denne bot. Derfor er PerplexityBot betydeligt mere aktiv end rene trænings-crawlere. Vi ser i logfiler fra kunder crawl-frekvenser, der delvist når op til Googlebot. For aktuelle emner — såsom branche-nyheder, produktopdateringer eller tidskritiske studieresultater — er PerplexityBot i dag ofte den vigtigste AI-crawler overhovedet. Den, der ønsker at blive synlig i Perplexity, skal forberede sit indhold, så det hurtigt kan crawles og citeres: præcise title-tags, stabil opbygning af meta-beskrivelser, klare angivelser af første offentliggørelsesdatoer.

  • PerplexityBot — live-forskning for Perplexity-svar
  • OAI-SearchBot — ChatGPT-søgeindeks
  • ChatGPT-User — direkte live-anmodninger af enkelte URLs
  • Google-Extended — opt-in-kontrol for Bard/Gemini-træning
  • CCBot — Common Crawl, træningsgrundlag for mange modeller
  • Bytespider — ByteDance, træningsdata for Doubao

AI-crawlere er ikke en trussel, men en chance. Den, der modtager dem ordentligt og serverer dem kvalitetsindhold, vil blive synlig i de afgørende generative svar.

Oversigt over de vigtigste AI-crawlere med User-Agent og funktion
GPTBot, ClaudeBot, PerplexityBot og Co. — hver crawler med sin egen opgave.

Common Crawl: det stille ryggrad

En central, ofte undervurderet rolle spilles af Common Crawl. Bag User-Agent CCBot står en nonprofitorganisation, der i årevis har bygget et åbent webarkiv. Praktisk talt hver stor sprogmodel — fra GPT til LLaMA — har i sin træningsfase brugt Common-Crawl-data. Den, der er blokeret i CCBot, udelukker dermed indirekte også sig selv fra træningsdataene for kommende modeller, uden at den pågældende AI-udbyder behøver at handle.

Deraf følger en strategisk anbefaling: Behandl Common Crawl som en kritisk discovery-kanal. Selvom du ønsker at blokere enkelte kommercielle AI-udbydere, bør CCBot i de fleste tilfælde få adgang. Ellers går du systematisk glip af synlighed i en stor del af AI-verdenen — også i modeller, der i dag slet ikke eksisterer. For de fleste mærker opvejer synlighedgevinsten de teoretiske bekymringer med afstand. Common Crawl arbejder transparent, koden er åben, dataene er frit tilgængelige, og brugen er klart dokumenteret. Den, der alligevel stiller sine indhold til rådighed på det åbne web, har her ingen rationel grund til blokeringer.

Crawl-frekvens og performance-krav

Crawl-frekvensen for AI-bots korrelerer stærkt med den opfattede autoritet af et domæne. I vores analyser ser vi: Sider med stærk backlink-profil og høj opdateringsfrekvens besøges betydeligt oftere af GPTBot, ClaudeBot og PerplexityBot end sider uden nævneværdige eksterne links. Mekanismen er den samme som ved Googlebot — AI-crawlere følger link-signaler for at beslutte, hvilke domæner der er værd at crawle ofte. Kvalitetsbacklinks er dermed ikke kun en ranking-faktor, men direkte en crawl-frekvens-faktor for AI-verdenen.

På performance-siden gælder: AI-crawlere har strenge timeouts. Leverer din side et svar på mere end to til tre sekunder, vil botten afbryde eller prioritere siden lavere. En hurtig server-respons, rent caching og komprimerede assets er dermed ikke kun UX-emner, men direkte GEO-faktorer. Den, der investerer her, gør sine indhold pålideligt tilgængelige for AI-systemer. En pragmatisk anbefaling fra vores projekter: Sænk time-to-first-byte under 400 millisekunder, implementer aggressiv page-caching på statiske indhold, og sørg for, at bot-trafik ikke bremses af CDN-drosselninger.

performanceLiebe analyserer dine server-logs, identificerer blokerende konfigurationer og optimerer din side til GPTBot, ClaudeBot og PerplexityBot.

Anmod om logfile-audit