GPTBot, ClaudeBot, PerplexityBot — ki mászik a weboldalára, hányszor és milyen szabályok szerint? Technikai áttekintés a legfontosabb AI-botokról 2026-ban.
Akik 2026-ban komolyan beszélnek a Generatív Engine Optimizationról, először is meg kell érteniük, ki fér hozzá a weboldalukhoz. A klasszikus Googlebot mellett mostanra körülbelül egy tucat specializált AI-kosár található a szervernaplókban — és mindegyiknek saját szabályai, saját gyakoriságai és saját követelményei vannak az oldalaikra. Egy világos áttekintést adunk a legfontosabb botokról és arról, mit jelentenek a láthatóságuk szempontjából.
GPTBot: OpenAI képzési kosara
A GPTBot a legismertebb AI-kosár. Az OpenAI ezt használja, hogy képzési adatokat gyűjtsön a GPT-modell család számára. A User-Agent-ben világosan azonosítja magát "GPTBot"-ként, és tiszteletben tartja a robots.txt utasításait. Fontos tudni: a GPTBot nem az egyetlen OpenAI-bot. Létezik OAI-SearchBot a ChatGPT-keresési funkcióhoz és ChatGPT-User közvetlen élő hívásokhoz, amikor egy felhasználó egy URL-re hivatkozik egy beszélgetés során. Ezek a három bot különböző feladatokat látnak el, és külön kell kezelni őket.
Technikailag fontos pont: a GPTBot nem renderel JavaScriptet. Azok a tartalmak, amelyeket kizárólag kliensoldalon töltenek be — például React-hidratálás vagy Vue-alkalmazások szerveroldali renderelés nélkül — láthatatlanok a GPTBot számára. Aki a ChatGPT-t felfedezési csatornaként veszi komolyan, annak a központi tartalmait szerveroldalon kell kiszolgálni. A statikus HTML, a tiszta markup és a gyors válaszidők már nem csak szép dolgok, hanem kemény követelmények. A gyakorlatban ez gyakran architektúra-döntést jelent: aki modern JavaScript-keretrendszereket használ, annak következetesen át kell állnia a szerveroldali renderelésre vagy statikus weboldal-generálásra. Ugyanez a javaslat már néhány éve érvényes volt a Googlebotra — az AI-kosarak fokozzák a nyomást, mert még kevesebb mozgásterük van a renderelési logikában, mint a Google-nak.
ClaudeBot: Anthropic adatkeresője
Az Anthropic, a Claude gyártója, saját kosarat üzemeltet ClaudeBot néven. Ő is tisztán azonosítja magát a User-Agent-ben és követi a robots.txt-t. A GPTBot-tól eltérően a ClaudeBot ritkábban, de annál rendszeresebben jelenik meg a naplóelemzéseinkben. Az Anthropic nagy hangsúlyt fektet az átlátható mászási gyakorlatokra, és rendszeresen közzéteszi az IP-tartományokat, ahonnan a bot működik. Ez megkönnyíti a ClaudeBot megkülönböztetését a hamis botoktól, amelyek AI-kosárnak álcázzák magukat.
A ClaudeBot alapértelmezés szerint szintén nem renderel JavaScriptet. Aki Claude-ot forrásszolgáltatásként szeretné használni, figyelembe kell vennie ugyanazt a technikai alapelvet, mint a GPTBot esetében: a kritikus tartalmaknak az inicializáló HTML-válaszban kell szerepelniük. A strukturált adatok JSON-LD-n keresztüli megadása, a világos fejléc-hierarchiák és a szemantikus markup segít a ClaudeBot-nak a tartalmak helyes osztályozásában és későbbi idézésében. Az Anthropic világosan kommunikál a nyilvános dokumentációján keresztül, hogy mely útvonalakat részesíti előnyben a ClaudeBot, és hogy mely User-Agent-eket használják még. Aki itt proaktívan olvassa a dokumentációt és ennek megfelelően állítja be a konfigurációját, gyakran hónapokkal megelőzi versenytársait a Claude-láthatóságban.
PerplexityBot és az élő kereső kosarak
A PerplexityBot eltér a két korábbi kosártól, mivel elsősorban nem képzési adatokért felelős, hanem az élő kutatásért, amelyet a Perplexity használ a válaszgépében. Ez azt jelenti: minden Perplexity-ben végzett kérés, amely aktuális webdokumentumot hív le, potenciálisan ezen a boton keresztül zajlik. Ennek következtében a PerplexityBot sokkal aktívabb, mint a tisztán képzési kosarak. Ügyfeleink naplóiban olyan mászási gyakoriságokat látunk, amelyek részben elérik a Googlebot szintjét. Az aktuális témák — például iparági hírek, termékfrissítések vagy időérzékeny tanulmányi eredmények — esetében a PerplexityBot ma gyakran a legfontosabb AI-kosár. Aki a Perplexity-ben láthatóvá akar válni, annak úgy kell feldolgoznia a tartalmait, hogy azok gyorsan mászhatóak és idézhetőek legyenek: pontos Title-tag, stabil Meta-leírás felépítés, világos első közzétételi dátumok.
- PerplexityBot — Élő kutatás a Perplexity válaszaihoz
- OAI-SearchBot — ChatGPT keresési index
- ChatGPT-User — közvetlen élő hívások egyes URL-ekhez
- Google-Extended — opt-in vezérlés a Bard/Gemini képzéshez
- CCBot — Common Crawl, sok modell képzési alapja
- Bytespider — ByteDance, képzési adatok a Doubao számára
Az AI-kosarak nem fenyegetést jelentenek, hanem lehetőséget. Aki tisztán fogadja őket és értékes tartalmakat kínál nekik, az láthatóvá válik a döntő generatív válaszokban.
Common Crawl: a csendes gerinc
A Common Crawl központi, gyakran alábecsült szerepet játszik. A CCBot User-Agent mögött egy nonprofit szervezet áll, amely évek óta egy nyílt webarchívumot épít. Gyakorlatilag minden nagy nyelvi modell — a GPT-től a LLaMA-ig — a képzési fázisában a Common Crawl adataira támaszkodott. Aki a CCBot-t blokkolja, az ezzel közvetve a jövőbeli modellek képzési adataiból is kizárja magát, anélkül, hogy a megfelelő AI-szolgáltató aktívan lépne fel.
Ez egy stratégiai ajánlást von maga után: A Common Crawl-t kezelje kritikus felfedezési csatornaként. Még ha egyes kereskedelmi AI-szolgáltatókat blokkolni is szeretne, a CCBot-nak a legtöbb esetben hozzáférést kell kapnia. Különben rendszeresen elkerüli a láthatóságot az AI világának nagy részében — még olyan modellekben is, amelyek ma még nem léteznek. A legtöbb márka számára a seo-szoszedet/lathatosag/">láthatóság nyeresége messze felülmúlja a teoretikus aggályokat. A Common Crawl átláthatóan működik, a kód nyílt, az adatok szabadon hozzáférhetők, és a használat világosan dokumentált. Aki a tartalmait amúgy is nyílt weben elérhetővé teszi, annak itt nincs racionális oka a blokkolásra.
Mászási gyakoriság és teljesítményigények
A AI-botok mászási gyakorisága szorosan összefügg a domain észlelt tekintélyével. Az értékeléseinkben azt látjuk: az erős backlink-profillal és magas frissítési gyakorisággal rendelkező oldalak a GPTBot, ClaudeBot és PerplexityBot által jelentősen gyakrabban látogatottak, mint a jelentős külső hivatkozások nélküli oldalak. A mechanizmus ugyanaz, mint a Googlebot esetében — az AI-kosarak követik a linkjelek, hogy eldöntsék, mely domainek érdemesek a gyakori mászásra. A magas színvonalú backlinkek tehát nemcsak rangsorolási tényezők, hanem közvetlen mászási gyakorisági tényezők is az AI világában.
A teljesítmény oldalán érvényes: az AI-kosarak szigorú időkorlátokkal rendelkeznek. Ha az oldalának válasza több mint két-három másodpercet vesz igénybe, a bot megszakítja vagy alacsonyabb prioritást ad az oldalnak. A gyors szerverválasz, a tiszta cache-elés és a tömörített eszközök tehát nem csupán UX-témák, hanem közvetlen GEO-tényezők. Aki itt befektet, az a tartalmait megbízhatóan elérhetővé teszi az AI-rendszerek számára. Egy pragmatikus ajánlás a projektjeinkből: csökkentse a Time-to-First-Byte-ot 400 milliszekundum alá, alkalmazzon agresszív Page-Caching-et statikus tartalmakra, és győződjön meg arról, hogy a botforgalom sem szenved CDN-korlátozások miatt.
A performanceLiebe elemzi a szervernaplóit, azonosítja a blokkoló konfigurációkat, és optimalizálja az oldalát a GPTBot, ClaudeBot és PerplexityBot számára.
Naplóellenőrzés kérés













