BERT! Is de naam van de grootste update in het algoritme van Google in de afgelopen vijf jaar …
Ja, het wordt serieus BERT genoemd en het herinnert ons duidelijk aan die gele pop van Sesamstraat.
BERT staat voor: “Bidirectional Encoder Representations from Transformers”, en het is een Natural Language Processing (NLP) -model.
En om de grappige associatie met Sesamstraat nog wat kracht bij te zetten: een andere “pre-trained contextual representation” heeft serieus de naam “ELMo”.
Het is ontwikkeld om een beter begrip van talen, zoekopdrachten en inhoud te krijgen met als einddoel de meest relevante resultaten in SERP’s (search engine results pages) weer te geven.
Een ander (langdurig) voordeel is dat deze update het voor Google gemakkelijker maakt om “voice search” beter te begrijpen, zodat het nauwkeurigere resultaten kan bieden bij gesproken zoekopdrachten die (waarschijnlijk) zullen leiden tot meer gebruik van “voice search”.
Binnenkort al van invloed op zoekopdrachten
Tot nu toe is deze update in het Engels (VS en VK) uitgerold, maar binnenkort ook voor het Nederlands (en andere talen).
BERT zal ook worden gebruikt voor “featured snippets” die volgens Google tot nog betere/relevantere resultaten zullen leiden.
“Featured snippets” tonen vaak een nog duidelijker en gestructureerd antwoord of stappen in een proces (bijvoorbeeld “hoe een cake te bakken”) of een Q&A.
Google heeft al duidelijk gemaakt dat het geen zin heeft om strategieën te definiëren om deze update in je voordeel te laten werken, anders dan de strategie om mensen zo goed mogelijk te informeren.
Klinkt goed voor mij, want dat is (of zou moeten zijn) de belangrijkste reden waarom je in het algemeen inhoud schrijft: om je (potentiële) klanten en anderen te helpen door de gewenste informatie te verstrekken.
Dus dit is gewoon een logische stap in de missie van Google, die luidt: “Onze missie is om informatie over de hele wereld te organiseren en universeel toegankelijk en bruikbaar te maken”.
Wat betekent bi-directional?
Het betekent dat BERT de context en relaties van alle woorden in een zin gebruikt, in plaats van slechts één voor één in de volgorde waarin ze worden ingetypt/ingesproken.
Door dit in beide richtingen te doen, kan BERT de volledige context van een woord achterhalen door te kijken naar de woorden die ervoor en erna komen.
En hoewel dit weer een grote stap voorwaarts is om dichter bij het begrijpen van taal op menselijk niveau te komen, is het niet de definitieve oplossing voor het begrijpen van talen en BERT zal het soms nog steeds fout hebben.
Wil je op de hoogte blijven van onze blogs, projecten en branche gerelateerde informatie? Volg dan onze LinkedIn pagina: