Il tempo di caricamento e il budget di scansione saranno gli indicatori SEO più importanti nel 2020

Sulla base di alcuni test, PLT (Page Load Time) e CBR (Crawl Budget Rank) sono gli aspetti tecnici che determineranno il successo o il fallimento del vostro sito Web nel 2020.

Google ha la capacità di imporre le proprie regole ai proprietari di siti Web, sia in termini di contenuto e trasparenza delle informazioni, sia in termini di qualità tecnica. Per questo motivo, uno degli aspetti tecnici a cui fare maggiore attenzione è la velocità del sito Web dal punto di vista dei tempi di caricamento, che viene normalmente chiamato con l’acronimo PLT (Page Load Time).

Il Time To First Byte (TTFB) è il tempo di risposta del server dall’invio della richiesta fino all’invio del primo byte di informazioni. Questo parametro dimostra il funzionamento di un sito Web dal punto di vista di un server (connessione al database, sistema di elaborazione delle informazioni e cache dei dati, nonché prestazioni del server DNS).

Ma come si controlla il TTFB? Il modo più semplice è utilizzare uno dei seguenti strumenti:

  • Strumenti per sviluppatori nel browser Chrome
  • WebPageTest
  • Byte Check

Interpretazione dei risultati

Un tempo TTFB inferiore a 100 ms è già un risultato impressionante. Nelle raccomandazioni di Google, il TTFB non deve superare i 200 ms. È comunemente accettato che il tempo di risposta del server per ricevere il primo byte non deve superare 0,5 s. Oltre questo valore, potrebbero esserci problemi sul server, quindi correggerli migliorerà l’indicizzazione di un sito Web.

Miglioramento del TTFB

  1. Analizzare il sito Web migliorando i frammenti di codice responsabili delle query di database che consumano risorse (ad esempio join multi-livello) o responsabili del caricamento di codice pesante per il processore (ad esempio generando al volo strutture di dati ad albero complessi, come la struttura delle categorie o la preparazione delle immagini in miniatura prima di visualizzare la pagina, senza l’uso dei meccanismi di memorizzazione nella cache).
  2. Utilizzare una rete di distribuzione di contenuti (CDN). In questo caso di tratta di usare reti di server sparse in tutto il mondo che forniscono contenuti come CSS, file JS e foto da server situati più vicino alla persona che desidera visualizzare un determinato sito Web. Grazie alle CDN, le risorse non vengono messe in coda, come nel caso dei server classici, e vengono scaricate quasi in parallelo. L’implementazione di una CDN riduce i tempi del TTFB fino al 50%.
  3. Se si utilizza un hosting condiviso, considerare la migrazione a un server VPS con risorse garantite dal punto di vista della memoria o della potenza del processore o considerare la migrazione su un server dedicato. Questo assicura che solo tu possa influenzare il funzionamento di una macchina (o di una macchina virtuale nel caso di VPS). Se qualcosa funziona lentamente, i problemi potrebbero essere dalla tua parte, non necessariamente dal server.
  4. Prendere in considerazione l’implementazione di sistemi di memorizzazione nella cache. Nel caso di WordPress, hai molti plugin tra cui scegliere, la cui implementazione non è problematica e gli effetti saranno immediati. WP Super Cache e W3 Total Cache sono i plugin che vengono utilizzati più spesso. Se usi soluzioni dedicate, prendi in considerazione le implementazioni Redis, Memcache o APC che ti consentono di scaricare i dati in file o archiviarli nella RAM, aumentando l’efficienza.
  5. Abilitare il protocollo HTTP/2 o, se il server dispone già della funzione, il protocollo HTTP/3. I vantaggi sotto forma di velocità sono impressionanti.

Tempo di elaborazione DOM

Il tempo di elaborazione DOM è il tempo necessario per scaricare tutto il codice HTML. Più efficace è il codice, meno risorse sono necessarie per caricarlo. La minore quantità di risorse necessarie per memorizzare un sito Web nell’indice del motore di ricerca migliora la velocità e la soddisfazione degli utenti.

Personalmente sono un fan della riduzione del volume del codice HTML, che si può ottenere eliminando il codice HTML ridondante e cambiando la generazione di elementi visualizzati su un sito Web da codice HTML a CSS.

Tempo di rendering della pagina

Il tempo di rendering della pagina di un sito Web è influenzato dal download di risorse grafiche, nonché dal download e dall’esecuzione del codice JS.

La minimizzazione e la compressione delle risorse è un’azione di base che diminuisce il tempo di rendering di un sito Web. Tra le varie azioni che si possono fare, le più importanti sono:

  • Caricamento di foto asincrone
  • Minimizzazione HTML
  • Migrazione del codice JavaScript da HTML a file JavaScript esterni caricati in modo asincrono

Queste attività dimostrano che è buona norma caricare solo il codice Javascript o CSS necessario in una sottopagina. Ad esempio, se un utente si trova su una pagina del prodotto, il browser non deve caricare il codice JavaScript che verrà utilizzato nel carrello o nel pannello di un utente connesso.

Più risorse devono essere caricate, maggiore è il tempo che Google Bot deve impiegare per gestire il download delle informazioni relative al contenuto del sito Web. Se assumiamo che ogni sito Web abbia un numero massimo/durata massima delle visite di Google Bot (che termina con l’indicizzazione del contenuto), un aumento del tempo di rendering causerà una diminuzione del numero di pagine che saranno in grado di essere inviate all’indice del motore di ricerca durante quel periodo.

Crawl Budget Rank

Il problema finale è quello che richiede più attenzione. Il budget di scansione (Crawl Budget Rank) influisce in modo significativo sul modo in cui Google Bot indicizza i contenuti di un sito Web. Per capire come funziona e qual è il budget di scansione, è possibile utilizzare un concetto chiamato CBR (Crawl Budget Rank) per valutare la trasparenza della struttura del sito web.

Se Google Bot trova versioni duplicate dello stesso contenuto su un sito Web, il nostro CBR diminuisce. Questo lo possiamo sapere in due modi, che descriverò nei prossimi paragrafi.

Analisi tramite Google Search Console

Analizzando e valutando i problemi relativi all’indicizzazione delle pagine nella Google Search Console, saremo in grado di osservare problemi in numero crescente nella scheda Copertura > Pagina esclusa, in sezioni come:

  • Sito web scansionato ma non ancora indicizzato
  • Il sito Web contiene reindirizzamento
  • Duplicato, Google ha scelto una pagina canonica diversa da quella dell’utente
  • Duplicato, l’utente non ha contrassegnato la pagina canonica

Analisi tramite il log di sistema

I log di sistema sono la migliore fonte di informazioni su come Google Bot esegue la scansione del nostro sito Web. Sulla base dei dati di log, possiamo comprendere la struttura del sito Web per identificare i punti deboli nell’architettura creata da collegamenti interni ed elementi di navigazione.

Gli errori di programmazione più comuni che riguardano i problemi di indicizzazione includono:

  1. Meccanismi di filtro e ordinamento dei dati creati in modo inadeguato, con la conseguente creazione di migliaia di pagine secondarie duplicate
  2. Collegamenti “Quick view” che nella versione utente mostrano un pop-up con i dati sul layer e creano un sito Web con informazioni duplicate sul prodotto
  3. Paginazione infinita
  4. Collegamenti su un sito Web che reindirizzano a risorse su un nuovo URL
  5. Blocco dell’accesso per i robot a risorse spesso ripetitive
  6. Tipici errori 404

Il nostro CBR diminuisce se aumenta il “disordine” del nostro sito Web, il che significa che Google Bot è meno disposto a visitare il nostro sito Web (frequenza inferiore), indicizza sempre meno contenuti e, nel caso di un’interpretazione errata della versione corretta delle risorse, rimuove le pagine precedentemente nell’indice del motore di ricerca.

Il concetto di Crawl Budget Rank ci dà quindi un’idea di quante pagine vengono scansionate (da Google Bot) mediamente al giorno (in base ai file di registro) rispetto alle pagine totali sul sito.

Ecco due scenari, a titolo esemplificativo:

  • Il tuo sito ha 1.000 pagine e Google Bot esegue la scansione di 200 pagine ogni giorno. Che cosa ti dice? È un risultato negativo o positivo?
  • Il tuo sito ha 1.000 pagine e Google Bot esegue la scansione di 1.000 pagine. Dovresti essere felice o preoccupato?

Senza estendere il concetto di budget di ricerca con metriche di qualità aggiuntive, queste informazioni non sono così utili come sembra. Il secondo caso potrebbe essere una pagina ben ottimizzata o segnalare un grosso problema. Supponiamo che Google Bot esegua la scansione di solo 50 pagine e che le restanti (950 pagine) siano pagine con contenuti sporchi/duplicati/thin content. In questo caso avremmo un problema.

Se assumiamo che il CBR sia uno dei fattori di classificazione che influenzano il ranking generale del dominio, lo definirei come il fattore più importante in loco immediatamente dopo il Page Rank off-site.

Quale può essere l’utilità di inserire descrizioni uniche ottimizzate per le parole chiave selezionate in termini di popolarità se Google Bot non avrà l’opportunità di inserire queste informazioni nell’indice del motore di ricerca?

Contenuti scritti per l’utente

Stiamo assistendo ad un’altra grande rivoluzione nella lettura e nell’interpretazione di query e contenuti sui siti Web. Storicamente, tali cambiamenti includono:

  • Standard quantitativi: 1.000 caratteri comprensivi di spazi e tre parole chiave nel contenuto. Fino a un certo momento usare queste linee guida è stato garanzia di successo, un giorno ha semplicemente smesso di essere utile.
  • Thin content: traffico basato su contenuti pieni di parole chiave. All’improvviso, anche questa strategia ha smesso di funzionare, oltre ad aver generato artificialmente contenuti di bassa qualità.
  • Contenuti duplicati: Google Bot ha imparato (più o meno bene) quale testo indicizzato nel motore di ricerca è originale (creato per primo) e quale è una copia. Di conseguenza, è stato creato Panda (algoritmo di Google). L’algoritmo ha filtrato e contrassegnato i siti Web di bassa qualità e ridotto il loro ranking, ovvero il loro posizionamento sui motori di ricerca. Attualmente funziona in modalità “live”.
  • Rank Brain: un algoritmo che, utilizzando l’apprendimento automatico, interpreta le query degli utenti dei motori di ricerca con minore enfasi sulle parole chiave e più sul contesto delle query (inclusa la cronologia delle query), oltre a visualizzare risultati più specifici per il contesto.
  • E-A-T (Expertise, Authoritativeness, Trustworthiness): eliminazione di contenuti fuorvianti o che possono essere potenzialmente fuorvianti a causa della scarsa autorità dell’autore del contenuto, e di conseguenza dei domini. Ciò ha interessato in particolare il settore medico e finanziario. Qualsiasi articolo creato da non esperti, ma riguardante le sfere di vita di cui sopra, può causare molti danni. Da qui la lotta di Google verso domini con contenuti e qualità scadenti.

La creazione di contenuti per parole chiave specifiche sta perdendo importanza. Gli articoli lunghi pieni di frasi perdono importanza rispetto ad articoli chiari e strettamente tematici se il contenuto è classificato come qualcosa che corrisponde alle intenzioni di ricerca di un utente e al contesto.

BERT

BERT (Bi-directorial Encoder Representations from Transformers) è un algoritmo che cerca di comprendere e interpretare la query a livello delle esigenze e delle intenzioni di un utente.

Ad esempio, la query: “Per quanto tempo posso rimanere negli Stati Uniti senza un visto valido?” può visualizzare sia i risultati dei siti Web in cui possiamo trovare informazioni sulla durata dei visti a seconda del paese di origine (ad esempio per le ricerche provenienti dall’Europa), sia quelli su ciò che devono fare le persone il cui visto scadrà entro breve tempo oppure ancora visualizzare i risultati che descrivono come legalizzare il proprio soggiorno negli Stati Uniti.

È possibile creare contenuti perfetti? La risposta è semplice: no. Tuttavia, possiamo sicuramente migliorare quello che facciamo.

Conclusione

Come sottolineo sempre, non esiste un modo unico per gestire la SEO. Solo i risultati ci potranno dire se la strategia, sia relativa alla creazione del contenuto di un sito Web sia del contenuto stesso, si dimostrerà valida.

Redazione