bert algoritmo google

BERT: cos’è e quali sono gli impatti del nuovo algoritmo di Google

L’annuncio dell’aggiornamento di algoritmo risale ormai a ottobre del 2019, ma ancora i SEO Specialist di tutto il mondo stanno studiando per comprendere a pieno quali sono le caratteristiche e gli impatti di BERT.

I primi cambiamenti si sono registrati sui mercati di lingua inglese, per poi espandersi in altre 70 lingue. Ma cos'è davvero BERT e perché questo update è così rivoluzionario? In breve, potremmo dire che questo nuovo algoritmo si basa sull'intento di ricerca dell’utente, con l’obiettivo di capirlo sempre meglio attraverso l’elaborazione del linguaggio naturale.

Riccardo Gaffuri

Riccardo Gaffuri

Ne parliamo con uno specialista che ha analizzato il fenomeno da vicino, Riccardo Gaffuri, Head of SEO di Pro Web Consulting, società di consulenza parte del Gruppo Cerved specializzata proprio in Search Engine Optimization, SEA, CRO e Web Analytics.

Linguistica computazionale e modelli NPL

Potremmo, quindi, affermare che BERT è in sostanza un modello di NLP (Natural Language Processing), creato dai ricercatori di Google AI, per migliorare la comprensione dell’intento di ricerca degli utenti.

La linguistica computazionale è quella branca che si pone come scopo lo sviluppo di modelli i quali permettono alle macchine la comprensione del linguaggio naturale umano.

Attraverso i modelli NLP, il machine learning si orienta ad avvicinarsi il più possibile ad un essere umano: comprende e interpreta un testo, soprattutto in relazione al contesto.

Ciò che per noi umani è naturale, infatti, è una sfida enorme per un algoritmo e, nel caso di Google per il motore di ricerca; questo perché, ovviamente, la macchina tende a ragionare in modo quantitativo e numerico, mentre la contestualizzazione, i nessi di causa effetto, per non parlare dell’umorismo, sono tutti elementi propri della comunicazione umana.

La centralità dello user intent 

La comprensione dello user intent è ormai da anni al centro delle strategie di sviluppo di Big G, al fine di assicurarsi il miglior palco per i propri annunci e, quindi, maggiori guadagni. Negli anni, questo obiettivo è stato perseguito con un sempre maggiore raffinamento delle capacità di matching sulle query di ricerca, e anche della possibilità di visualizzazione, filtro e selezione dei risultati in SERP.

Alcuni esempi sono l’algoritmo RankBrain attivo dal 2017 e basato proprio sull'analisi semantica e di comportamento degli utenti. Oppure l’uso dei knowledge graph multipli, cioè pannelli e tabelle che mostrano risultati in modo differente e con prospettive diverse, per dare all'utente un set di risposte esaustivo per la stessa query.

Quindi, anche BERT va sempre nella direzione di migliorare le risposte fornite, e non deludere l’intento e le aspettative dell’utente. Lo stesso colosso di Mountain View lo ha definito “rivoluzionario”, ma perché?

NLP direzionali e non-direzionalità di BERT

Fino ad oggi, i modelli di linguaggio naturale applicati dagli algoritmi dei motori di ricerca, al fine di potenziare la capacità delle macchine di imparare, erano implementati attraverso la vettorizzazione del contenuto testuale, oppure tramite l’analisi della frequenza delle occorrenze.

In pratica, dei modelli quantitativi e numerici, i metodi cosiddetti direzionali, attraverso l’analisi di una serie di parole ricorrenti trovano correlazioni tra le singole entità: la relazione, in questo modello, funziona in un solo senso, ergo all'interno del corpus del testo. La dimensione del contesto viene percepita in maniera parziale.

Con BERT Google vuole superare la direzionalità, implementando la codifica del linguaggio attraverso il cosiddetto Transformer: un meccanismo orientato a trovare le relazioni tra le parole di un testo in maniera bidirezionale, o non-direzionale, perché le analizza tutte e cerca di legare insieme non solo termini contigui, ma tutte le entità presenti, per trovare un senso complessivo. Per partite con la fase di test e di training, BERT è stato attivato sui testi di Wikipedia.

Anche la tecnologia che è stata messa in campo a livello hardware è rivoluzionaria: Google ha dovuto mettere in piedi un’infrastruttura computazionale hardware in grado di supportare il training di BERT, utilizzando le più recenti Cloud TPU (tensor processing unit) ossia un microprocessore apposito per reti neurali.


Leggi anche SEO: come scegliere le parole chiave più performanti


Impatti di BERT sull’attività di Search Engine Optimization 

In primis, dato che prima si accennava al fatto che esiste già un algoritmo riguardante la semantica e l’analisi di contesto, ossia RankBrain, bisogna sottolineare che BERT non lo sostituirà: si tratta di un’integrazione molto più sofisticata (mentre RankBrain resta attivo nell'associazione tra query simili, sinonimi e misspelling).

Quello che cambia in SERP è una maggiore comprensione del contesto della ricerca dell’utente, affidando quindi i risultati ad un’interpretazione meno didascalica. Cosa che viene spesso imputata, ad esempio, al competitor di Google, Bing, spesso tacciato di eccessiva letteralità delle risposte. Molto puntuale su informazioni precise e in tempo reale – come oscillazioni di prezzo di prodotto, voli aerei etc. – infatti, Bing non aveva mai fatto un investimento in comprensione del linguaggio naturale come Google.

In realtà, di recente, anche Bing ha annunciato di aver implementato BERT nel proprio algoritmo: un segno forte che la soddisfazione delle risposte in base al contesto è condizione ormai fondamentale per ogni motore di ricerca.

In buona sostanza, Big G è quasi riuscito a replicare – anche se ancora parzialmente – il meccanismo cerebrale umano di comprensione e contestualizzazione di un testo; quello che, per intenderci, permette di distinguere usi diversi di una stessa parola: ad esempio se stiamo parlando di un boa per una festa in maschera, il riferimento sarà quasi certamente a un frivolo accessorio d’abbigliamento piumato, e non al rettile.

In un universo in cui le query sono sempre più di tipo conversazionale, era essenziale per Google approcciarsi in questo modo, per fidelizzare gli utenti grazie a risposte molto ben aderenti all'intento di ricerca.

E ai SEO Specialist di tutto il mondo, cosa cambia?

In realtà, non molto: la direzione è sempre la stessa, quella della qualità, della redazione di contenuto non più meccanicamente “ottimizzato SEO” ma ben scritto, pregnante e pertinente con le query degli utenti.

Oggi più che mai, per piacere ai motori di ricerca, che ragionano sempre di più come gli umani, bisogna innanzitutto piacere agli utenti.

Questo apre scenari in cui anche la CRO e UX sono essenziali, sia per rendere la navigazione piacevole agli utenti sia per posizionarsi meglio sulle SERP.


Sull'argomento potrebbe interessarti anche l'opinione di Francesco Margherita: Google BERT. Cosa cambia (se cambia).


Commenti

commenti

Guest

Leave a reply