Kdo v roce 2026 vážně hovoří o Generative Engine Optimization, musí nejprve pochopit, kdo vlastně přistupuje na jeho webovou stránku. Kromě klasického Googlebota se nyní v serverových logách pohybuje přibližně tucet specializovaných AI-crawlerů — a každý z nich má svá vlastní pravidla, vlastní frekvence a vlastní požadavky na vaše stránky. Poskytujeme vám jasný přehled o nejdůležitějších botech a tom, co znamenají pro vaši seo-slovnik/viditelnost/">viditelnost.
GPTBot: Tréninkový crawler OpenAI
GPTBot je pravděpodobně nejznámější AI-crawler. OpenAI ho využívá k shromažďování tréninkových dat pro rodinu modelů GPT. Jasně se identifikuje v User-Agent jako "GPTBot" a respektuje pokyny v robots.txt. Důležité vědět: GPTBot není jediný bot OpenAI. Existuje také OAI-SearchBot pro funkci vyhledávání ChatGPT a ChatGPT-User pro přímé živé výzvy, když uživatel v konverzaci odkazuje na URL. Tyto tři boty mají různé úkoly a měly by být odlišně zpracovány.
Technicky důležitý bod: GPTBot nerenderuje JavaScript. Obsah, který se načítá výhradně na straně klienta — například pomocí React-Hydration nebo Vue aplikací bez server-side rendering — je pro GPTBot neviditelný. Kdo bere ChatGPT jako kanál pro objevování vážně, musí své centrální obsahy dodávat na serverové straně. Statické HTML, čisté markupy a rychlé doby odezvy nejsou jen příjemné, ale tvrdé požadavky. V praxi to často znamená rozhodnutí o architektuře: Kdo se spoléhá na moderní JavaScriptová rámce, měl by důsledně přejít na server-side rendering nebo static-site generation. Stejná doporučení platila již před několika lety pro Googlebot — AI-crawlery zvyšují tlak, protože mají ještě méně prostoru pro renderovací logiku než Google.
ClaudeBot: Anthropic na hledání dat
Anthropic, výrobce Claude, provozuje s ClaudeBotem vlastního crawlery. I on se jasně identifikuje v User-Agent a dodržuje robots.txt. Na rozdíl od GPTBot je ClaudeBot v našich analýzách logů méně častý, ale systematičtější. Anthropic klade důraz na transparentní praktiky procházení a pravidelně zveřejňuje IP rozsahy, z nichž bot operuje. To usnadňuje rozlišování ClaudeBota od falešných botů, které se maskují jako AI-crawlery.
I ClaudeBot standardně nerenderuje JavaScript. Kdo chce využít Claude jako zdrojový systém, měl by dodržovat stejný technický princip jako u GPTBot: kritické obsahy musí být v počátečním HTML odpovědi. Strukturovaná data pomocí JSON-LD, jasné hierarchie nadpisů a sémantický markup pomáhají ClaudeBotovi správně klasifikovat obsahy a později je citovat v odpovědích. Anthropic jasně komunikuje ve své veřejné dokumentaci, které cesty ClaudeBot preferuje a které User-Agenty jsou navíc používány. Kdo zde proaktivně čte dokumentaci a přizpůsobuje svou konfiguraci, je často měsíc před svými konkurenty v viditelnosti Claude.
PerplexityBot a crawleři pro živé vyhledávání
PerplexityBot je na rozdíl od dvou předchozích crawlerů primárně zodpovědný nikoli za tréninková data, ale za výzkum v reálném čase, který Perplexity využívá ve své odpovědní mašině. To znamená: Každý dotaz v Perplexity, který získává aktuální webový dokument, potenciálně prochází tímto botem. Díky tomu je PerplexityBot výrazně aktivnější než čistě tréninkoví crawlery. V logových souborech našich klientů vidíme frekvence procházení, které se částečně blíží Googlebotu. Pro aktuální témata — například novinky v oboru, aktualizace produktů nebo časově kritické výsledky studií — je PerplexityBot dnes často nejdůležitějším AI-crawlerem vůbec. Kdo chce být viditelný v Perplexity, musí své obsahy připravit tak, aby byly rychle procházeny a citovány: přesný title-tag, stabilní struktura meta popisu, jasné údaje o datu prvního zveřejnění.
- PerplexityBot — živý výzkum pro odpovědi Perplexity
- OAI-SearchBot — vyhledávací index ChatGPT
- ChatGPT-User — přímé živé výzvy jednotlivých URL
- Google-Extended — opt-in řízení pro trénink Bard/Gemini
- CCBot — Common Crawl, tréninková základna mnoha modelů
- Bytespider — ByteDance, tréninková data pro Doubao
AI-crawlery nejsou hrozbou, ale příležitostí. Kdo je správně přijme a servíruje jim kvalitní obsahy, bude viditelný v rozhodujících generativních odpovědích.
Common Crawl: tichý základ
Centrální, často podceňovanou roli hraje Common Crawl. Za User-Agentem CCBot stojí nezisková organizace, která již léta buduje otevřený webový archiv. Prakticky každý velký jazykový model — od GPT po LLaMA — se ve své tréninkové fázi opíral o data z Common Crawl. Kdo je v CCBot blokován, tím se nepřímo vylučuje i z tréninkových dat budoucích modelů, aniž by se příslušný poskytovatel AI musel aktivně zapojit.
Z toho vyplývá strategické doporučení: Zacházejte s Common Crawl jako s kritickým kanálem pro objevování. I když chcete blokovat jednotlivé komerční poskytovatele AI, měl by CCBot ve většině případů získat přístup. Jinak systematicky přicházíte o viditelnost ve velké části AI světa — i v modelech, které dnes ještě neexistují. Pro většinu značek převyšuje zisk na viditelnosti teoretické obavy. Common Crawl pracuje transparentně, kód je otevřený, data jsou volně dostupná a používání je jasně zdokumentováno. Kdo své obsahy stejně poskytuje v otevřeném webu, nemá zde racionální důvod pro blokace.
Frekvence procházení a požadavky na výkon
Frekvence procházení AI-botů silně koreluje s vnímanou autoritou domény. V našich analýzách vidíme: Stránky se silným backlinkovým profilem a vysokou frekvencí aktualizací jsou GPTBotem, ClaudeBotem a PerplexityBotem navštěvovány výrazně častěji než stránky bez významných externích odkazů. Mechanismus je stejný jako u Googlebota — AI-crawlery následují signály odkazů, aby rozhodly, které domény si zaslouží časté procházení. Kvalitní backlinky tedy nejsou jen faktorem pro hodnocení, ale přímo faktorem frekvence procházení pro AI svět.
Na straně výkonu platí: AI-crawlery mají přísné timeouty. Pokud vaše stránka poskytne odpověď za více než dvě až tři sekundy, bot přeruší nebo stránku níže priorizuje. Rychlá serverová odpověď, čisté cachování a komprimované soubory nejsou tedy pouze tématy UX, ale přímými GEO faktory. Kdo zde investuje, činí své obsahy pro AI systémy spolehlivě přístupné. Pragmatické doporučení z našich projektů: Snižte time-to-first-byte pod 400 milisekund, nastavte agresivní page-caching na statické obsahy a zajistěte, aby ani botový provoz nebyl zpomalen CDN throttlingem.
performanceLiebe analyzuje vaše serverové logy, identifikuje blokující konfigurace a optimalizuje vaši stránku pro GPTBot, ClaudeBot a PerplexityBot.
Požádat o audit logů













