Blog

  Alle berichten

De Google update: BERT

27 december 2019

De grootste Google update in vijf jaar

Met het oog op dagelijks miljarden zoekopdrachten heeft Google op 25 oktober de grootse algoritme-update (BERT) in vijf jaar aangekondigd. De BERT-update is op 10% van alle zoekopdrachten van invloed. Wat is BERT en welke invloed heeft dit op de SEO? Ik vertel je graag meer!

Wat is BERT?

BERT is een algoritme welke is ontworpen door Google. De afkorting staat voor Bidirectional Encoder Representations from Transformers. Het BERT-algoritme helpt met het begrijpen van natuurlijke taal in plaats van SEO-geoptimaliseerde teksten op het web. Door logica achter de (zoek)woorden en combinaties te combineren, zullen de zoekresultaten dusdanig positief gaan veranderen. Het doel hierachter? Betere uitkomsten in de zoekmachine die passen bij jouw vraag.

Wat doet BERT?

Wanneer mensen zoals jij en ik een vraag hebben en het antwoord willen opzoeken in de zoekmachine van Google weten we 9 van de 10 keren niet de juiste manier om de vraag te formuleren. "Zal ik mijn vraag in een gehele zin stellen, of juist alleen met enkele woorden?"  De gedachte die hierachter zit is vaak: "Hoe zal Google mijn vraag interpreteren?".

Met de komst van BERT is dit niet langer een pijnpunt. BERT zorgt er namelijk voor dat de volledige context van een woord in overweging wordt genomen door te kijken naar de woorden die ervoor en erna komen. Dat weer nuttig is voor het begrijpen van de intentie achter zoekopdrachten en hierdoor kan Google zoekresultaten tonen die beter aansluiten op de zoekintentie. Zie hieronder enkele voorbeelden.

1
Voorbeeld BERT 1

Hier is de zoekopdracht "2019 brazil traveler to usa need a visa". Het woord "to" en de relatie met de andere woorden in de zoekopdracht zijn bijzonder belangrijk om de betekenis te begrijpen. Het gaat namelijk over een Braziliaan die naar de VS reist én een visum nodig heeft, en niet een persoon uit de U.S. die naar Brazilie reist.

2
Voorbeeld BERT 2

Laten we eens kijken naar een andere vraag: “do estheticians stand a lot at work". Vroeger kozen de systemen voor het matchen van trefwoorden, waarbij de term "stand-alone" in het resultaat overeenkwam met het woord "stand" in de query. Maar dat is niet het juiste gebruik van het woord "stand" in context. De BERT-modellen daarentegen begrijpen dat "stand" verband houdt met het concept van de fysieke eisen van een taak en een nuttiger antwoord vertoont.

3
Voorbeeld BERT 3

Hoewel de vorige resultaten een boek bevatte in de categorie 'Young Adult', kan BERT beter begrijpen dat 'Adult' buiten zijn context wordt gebruikt en kan nu een nuttiger resultaat uitkiezen.

4
Voorbeeld BERT 4

Met het BERT-model kan Google beter begrijpen dat 'for someone' een belangrijk onderdeel van deze zoekopdracht is, terwijl zij eerder de betekenis misten. Hierdoor kwam de zoekmachine met algemene resultaten over het invullen van recepten in plaats van de essentie van de vraag te beantwoorden namelijk of iemand anders het recept mag ophalen.

5
Voorbeeld BERT 5

In het verleden zou een query als deze de systemen verwarren. Google hechtte te veel belang aan het woord "curb" en negeerde het woord "no", niet begrijpend hoe kritisch dat woord was om correct op deze query te reageren.

Welk effect heeft dit op mijn SEO?

Google hechtte al veel waarde aan de inhoud van de website, maar met BERT op komst is mijn advies om de content van de website eens na te lopen en beoordelen op meerwaarde (is dit interessant voor de bezoeker?). Je kunt de website niet specifiek optimaliseren voor BERT.

Wanneer is BERT actief in het Nederlands?

Google gebruikt BERT nu alleen bij 1 op de 10 zoekopdrachten in de U.S. in het Engels. Ze geven aan dit in de toekomst naar meerdere talen en locaties te willen uitbreiden. We wachten het af en zullen je hierover geïnformeerd houden!