Google BERT update: de grootste update ooit? ⏰
Half oktober heeft Google een belangrijk algoritme update gelanceerd: BERT. Buiten dat dit natuurlijk voer is voor grappige plaatjes en gifs (zie onder :D) noemt Google dit de belangrijkste update ooit. Dan gaan in SEO-land natuurlijk alle alarmbellen af.
Wat is de BERT update?
De BERT update is een verbeterd deep learning algoritme met betrekking tot ‘natural language processing’ (NLP). Dit algoritme helpt Google om de nuances van menselijke taal veel beter te begrijpen. Deze update is dan ook met name gericht op zoekopdrachten geformuleerd in natuurlijke taal of conversaties (bv. voice search).
BERT staat voor Bidirectional Encoder Representations from Transformers. Het werkt door met een speciaal soort neuraal netwerk (transformer) te kijken naar een woord in relatie tot de woorden ervoor en erachter (bidirectional).
Of in de woorden van Google zelf:
“These improvements are oriented around improving language understanding, particularly for more natural language/conversational queries, as BERT is able to help Search better understand the nuance and context of words in Searches and better match those queries with helpful results.”
Het is een enorme stap, maar BERT is nog niet zover dat het taal op een menselijk niveau kan begrijpen. Vooral voor de Assistent is dit belangrijk. Onderstaand een aantal voorbeelden hiervan.
Hier zie je het belang van nuance en begrip van menselijk taalgebruik goed terug. Let ook op wat Google hierover zegt:
“Particularly for longer, more conversational queries, or searches where prepositions like ‘for’ and ’to’ matter a lot to the meaning, Search will be able to understand the context of the words in your query. You can search in a way that feels natural for you.”
BERT is open source en er zijn al veel versies van BERT. Wil je meer weten over de werking van BERT en Transformer netwerk, dan raad ik je aan te beginnen met onderstaande artikelen:
- Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing
- Transformer: A Novel Neural Network Architecture for Language Understanding
Off topic: Waarom BERT en niet BRENT?
Ben ik de enige die denkt: als je een backroniem als BERT kan maken, hoeveel moeite is het dan om er BRENT van te maken? Bidirectional Representation Encoder from Neural Transformers klinkt eigenlijk beter toch? Enfin, verder met de blog..
Hummingbird > RankBrain > BERT
Als je de trend van de laatste Google algoritme updates bekijkt (zie Hummingbird, zie RankBrain) dan is BERT een logische vervolgstap. Google stopt enorm veel middelen in het begrijpen van menselijk taalgebruik om de zoekopdrachten van gebruikers veel beter te kunnen begrijpen en specifieker (en dus beter) antwoord te kunnen geven. Dit doen ze omdat dagelijks 15% nog nooit uitgevoerde zoekopdrachten verwerkt moeten worden. En met de opkomst van voice search gaat het alleen maar belangrijker worden om taalbegrip naar een menselijk niveau te brengen.
Google noemt dit zelf dan ook de belangrijkste update in 5 jaar. Maar waarom hadden we pas wat door toen Google erover begon?
Update van Google
Google doet eigenlijk nooit mededelingen over het lanceren van updates. Dus dit is al een nieuwe ervaring. Normaliter gaat het rond zo’n update namelijk als volgt:
- Rumoer op SEO fora over verlies van rankings
- SEO’ers stellen vragen aan Google via Twitter
- Google komt met vage uitspraken waarin verplicht 7x ‘great content’ en ‘for the users’ in voor moet komen op straffe van 1000 push-ups
- Iemand vernoemt de update naar een dier
- De grotere SEO blogs duiken dieper op de materie in en komen met een analyse
- Bedrijven kloppen bij Traffic Builders aan en wij lossen de boel op
Gek genoeg gingen nu alle alarmbellen pas af nádat Google de update bekendmaakte. Er was nauwelijks heisa op SEO fora en ook de verschillende tools die fluctuaties in de rankings bijhouden, gingen niet af.
Dus SEO’ers én tools merkten de grootste Google update ooit niet op. Zitten SEO’ers te slapen? Falen de tools? Of roept Google maar wat?
1 op 10 ≠ 10%
Op verschillende online marketing blogs en nieuwssites is te lezen dat deze update van invloed is op 10% van de zoekopdrachten. Dat is heul veul. Nee, maar echt heul veul. Ter vergelijking: bij Penguin en Panda (waarbij het voelde alsof de SEO-wereld in brand stond) was dit zo’n 3%.
Google schrijft in hun aankondiging van deze update echter:
“In fact, when it comes to ranking results, BERT will help Search better understand one in 10 searches in the U.S. in English, and we’ll bring this to more languages and locales over time.”
Hoewel BERT wel al gebruikt wordt voor featured snippets gaat het dus nog maar om 1 op 10 Engelse zoekopdrachten in de VS dus. Verre van 10% van alle zoekopdrachten dus. Maar de komende tijd wordt BERT over meerdere landen en talen uitgerold en krijgen we dus ook in Nederland met BERT te maken. Gaan wij hier dan ook veranderingen zien in 1 op de 10 zoekopdrachten?
Ik betwijfel het. Je ziet namelijk pas iets als je ernaar kijkt. En de rankingmonitoring tools die fluctuaties bijhouden, kijken doorgaans naar short tail keywords. Daar zit natuurlijk het meeste zoekvolume op. En dat zal ook de reden zijn waarom jijzelf voornamelijk short tail keywords bijhoudt in dit soort tools. Maar BERT zal met name van invloed zijn op langere zoekopdrachten of hele zinnen, omdat het op basis van die context werkt. Desondanks adviseer ik je wel om je rankings in de gaten te houden (als je dat nog niet deed).
FYI, I wouldn't expect to see much impact of BERT in MozCast — the daily tracking set is mostly shorter phrases and so-called head terms. They're not the kind of phrases that are likely to require NLP at the level BERT acts (from my own, limited understand).
— Dr. Parody Meyers (@dr_pete) October 25, 2019
Je kan niet optimaliseren voor BERT
Wat verandert BERT voor mijn SEO inzet? Voor SEO’ers zal de impact wel meevallen, maar in termen van vooruitgang van de zoekmachine is dit een enorme stap. Zeg ik hiermee eigenlijk dat je geen rekening hoeft te houden met de grootste update ooit? Ja en nee.
BERT wordt alleen gebruikt om zoekopdrachten beter te begrijpen. Je kan dus niet optimaliseren voor BERT. Het enige wat je kan doen, is specifiekere content schrijven. Check op welke long tail keywords je verkeer binnenkrijgt (Search Console > Performance). Zitten hier zoekopdrachten tussen die heel erg op elkaar lijken, maar waarbij de zoekintentie eigenlijk net anders is? Wellicht dat je daarvoor specifiekere content kan schrijven.
BERT is als de opwarming van de aarde: het is een enorme ontwikkeling waar je waarschijnlijk niks van merkt.