SEO Basics 2 Min Lesezeit

Core Web Vitals 2026: Was sich geändert hat und wie ihr testet

Patrick Tomforde Patrick Tomforde ·

INP hat FID 2024 abgelöst, CLS-Definition wurde verschärft, und LCP-Anforderungen sind mobile-first geworden. Was 2026 wirklich zählt — und wie ihr es misst.


Wer 2026 noch FID misst, misst die falsche Metrik. Google hat die Core Web Vitals seit ihrer Einführung mehrfach überarbeitet. Aktueller Stand: Largest Contentful Paint (LCP), Interaction to Next Paint (INP) und Cumulative Layout Shift (CLS). Wir zeigen, was sich konkret geändert hat und welche Tools wir täglich nutzen.

LCP — Largest Contentful Paint

LCP misst, wie schnell das größte sichtbare Element im Viewport gerendert wird. Schwellwert für "gut": ≤ 2,5 Sekunden auf dem 75. Perzentil aller Seitenaufrufe. Häufigster LCP-Killer im Jahr 2026: nicht-priorisierte Hero-Bilder ohne `fetchpriority="high"` und ohne explizite Width/Height-Attribute.

INP — Interaction to Next Paint (ersetzt FID)

INP ist seit März 2024 offizieller Core Web Vital und ersetzt First Input Delay. Während FID nur den ersten Klick maß, misst INP alle Interaktionen während des Sitzungs-Lifecycles und nimmt das schlechteste Perzentil. Schwellwert für "gut": ≤ 200ms.

In der Praxis ist INP der unangenehmste Vital für moderne Apps. Hauptverursacher: lange JavaScript-Tasks bei UI-Interaktionen (Cookie-Banner-Hydration, Analytics-Init, Third-Party-Widget-Boot).

CLS — Cumulative Layout Shift

CLS misst, wie stark sich Inhalte während des Ladens verschieben. Schwellwert: ≤ 0,1. Häufigster CLS-Verursacher 2026: spät geladene Cookie-Banner und Newsletter-Popups, die Content nach unten schieben.

Tools, die wir täglich nutzen

  • PageSpeed Insights (offizielle Field-Daten aus CrUX)
  • Chrome DevTools — Performance-Tab (Lab-Daten, debugbar)
  • web.dev/measure (gleiche Engine wie PSI, schickere UI)
  • Calibre / SpeedCurve für Continuous Monitoring
  • Cloudflare Web Analytics oder Vercel Speed Insights für RUM
Speaker mit Performance-Charts auf einer SEO-Konferenz
Performance-Optimierung ist auf jeder größeren Konferenz Standardthema.

Praxis: Field vs. Lab

Field-Daten (CrUX, RUM) und Lab-Daten (Lighthouse, DevTools) zeigen oft unterschiedliche Werte. Google rankt nach Field-Daten. Lab-Daten sind reproduzierbar und gut zum Debuggen, aber nicht ranking-relevant. Pragmatische Regel: Field-Werte sind die "Wahrheit", Lab-Werte zeigen die "Ursache".

Wir machen einen vollständigen Performance-Audit mit konkreten Optimierungs-Tickets nach Priorität.

Audit anfragen

Fazit

Wer 2026 ranken will, kommt an Core Web Vitals nicht vorbei. INP ist die neue Bühne, LCP bleibt der Klassiker, CLS macht den meisten Ärger durch Third-Party-Scripts. Field-Daten beobachten, Lab-Daten zum Debuggen nutzen, und nicht alles auf einmal optimieren wollen.