Publié le 27 octobre 2019

Google BERT : vers la recherche en langage naturel

Google vient de publier un article détaillé (une fois n’est pas coutume) sur une évolution majeure de son algorithme de recherche.

L’objectif est clair : améliorer la compréhension des recherches en langage naturel. Depuis des années, nous avons pris l’habitude de forger nos recherches sur la base de mots-clés ou d’expressions. En tant qu’utilisateurs, nous tenons compte de notre longue expérience de recherche pour adapter nos termes dans le but d’améliorer la pertinence de nos résultats. Nous pensons « mots-clés » et non « langage naturel » et les expert SEO tiennent particulièrement compte de ces comportements.

Google souhaite faire évoluer cela aujourd’hui avec le lancement de BERT, (Bidirectional Encoder Representations from Transformers), un algorithme d’ingénierie linguistique dédié à la compréhension des phrases et de la relation entre les mots.

Les principaux cas qui bénéficieront de ces avancées seront les longues expressions et les phrases. Google donne plusieurs exemples, dont le suivant : « 2019 brazil traveler to usa need a visa« . BERT va comprendre la relation entre le « to » (qui n’est pas du tout un mot vide ici) et usa, pour comprendre qu’il s’agit d’une personne du Brésil qui souhaite se rendre aux USA.

Une meilleure compréhension de la relation entre les mots améliore la pertinence des résulats.

Lancé initialement pour les angophones, un déploiement progressif sur d’autres langues devrait suivre.

Partagez, diffusez !
Partager sur facebook
Facebook
Partager sur twitter
Twitter
Partager sur linkedin
LinkedIn

Thème :

Nicolas Duvivier

UX/UI designer,
Directeur artistique