L'INP ha sostituito il FID 2024, la definizione di CLS è stata inasprita e i requisiti LCP sono diventati mobile-first. Cosa conta davvero nel 2026 — e come misurarlo.
Chi misura ancora il FID nel 2026 sta misurando la metrica sbagliata. Google ha rivisto più volte le Core Web Vitals dalla loro introduzione. Stato attuale: Largest Contentful Paint (LCP), Interaction to Next Paint (INP) e Cumulative Layout Shift (CLS). Mostriamo cosa è cambiato concretamente e quali strumenti utilizziamo quotidianamente.
LCP — Largest Contentful Paint
LCP misura quanto velocemente viene renderizzato il più grande elemento visibile nel viewport. Soglia per "buono": ≤ 2,5 secondi al 75° percentile di tutte le visualizzazioni di pagina. Il principale killer di LCP nel 2026: immagini Hero non prioritarie senza `fetchpriority="high"` e senza attributi Width/Height espliciti.
INP — Interaction to Next Paint (sostituisce FID)
INP è diventato ufficialmente una Core Web Vital da marzo 2024 e sostituisce il First Input Delay. Mentre il FID misurava solo il primo clic, l'INP misura tutte le interazioni durante il ciclo di vita della sessione e prende il percentile peggiore. Soglia per "buono": ≤ 200ms.
Nella pratica, l'INP è la metrica più scomoda per le app moderne. Principale causa: lunghi task JavaScript durante le interazioni UI (idratazione del banner dei cookie, inizializzazione degli analytics, avvio di widget di terze parti).
CLS — Cumulative Layout Shift
CLS misura quanto i contenuti si spostano durante il caricamento. Soglia: ≤ 0,1. Il principale responsabile di CLS nel 2026: banner dei cookie caricati tardi e popup di newsletter che spingono il contenuto verso il basso.
Strumenti che utilizziamo quotidianamente
- PageSpeed Insights (dati ufficiali sul campo da CrUX)
- Chrome DevTools — Tab Performance (dati di laboratorio, debugbar)
- web.dev/measure (stessa engine di PSI, UI più elegante)
- Calibre / SpeedCurve per monitoraggio continuo
- Cloudflare Web Analytics o Vercel Speed Insights per RUM
Pratica: Field vs. Lab
I dati sul campo (CrUX, RUM) e i dati di laboratorio (Lighthouse, DevTools) mostrano spesso valori diversi. Google classifica in base ai dati sul campo. I dati di laboratorio sono riproducibili e utili per il debug, ma non sono rilevanti per il ranking. Regola pragmatica: i valori sul campo sono la "verità", i valori di laboratorio mostrano la "causa".
Effettuiamo un audit completo delle performance con ticket di ottimizzazione concreti in base alla priorità.
Richiedi auditConclusione
Chi vuole posizionarsi nel 2026 non può ignorare le Core Web Vitals. L'INP è la nuova frontiera, l'LCP rimane il classico, il CLS crea il maggior disagio a causa degli script di terze parti. Monitorare i dati sul campo, utilizzare i dati di laboratorio per il debug e non cercare di ottimizzare tutto in una volta.













