Googles nieuwste zoekalgoritme update om de natuurlijke taal beter te begrijpen, genaamd BERT, heeft invloed op tien procent van alle zoekopdrachten. Google noemt het zelf de grootste stap voorwaarts in de laatste vijf jaar en één van de grootste sprongen in de geschiedenis van Search.

Vijftien procent van alle zoekopdrachten is uniek, dus nog nooit eerder uitgevoerd. Google moet algoritmes schrijven die daarmee om kunnen gaan.

Zelf weten we niet altijd onze zoekvraag op de juiste manier te formuleren. We maken het Google moeilijk doordat we niet altijd de juiste woorden weten, de spelling niet correct is, of juist zoeken om iets nieuws te leren. Om deze zoektermen beter te kunnen beantwoorden heeft Google BERT ontwikkeld.

BERT staat voor Bidirectional Encoder Representations from Transformers, een techniek voor natural language processing (NLP) die vorig jaar door Google is geïntroduceerd en open source is gemaakt. Met deze technologie kan iedereen zijn eigen state-of-the-art systeem trainen voor het beantwoorden van vragen.

Google geeft aan dat BERT helpt de nuances en context van woorden in zoekopdrachten beter te begrijpen en die zoekopdrachten beter te matchen met relevantere resultaten. Deze doorbraak is het resultaat van Google-onderzoek naar transformers: modellen die woorden verwerken in relatie tot alle andere woorden in een zin.

BERT-modellen kunnen daarom de volledige context van een woord in overweging nemen door te kijken naar de woorden die ervoor en erna komen – vooral handig om de intentie achter zoekopdrachten te begrijpen.

Het hele artikel van Bart Leeffers kun je hier lezen.