Est-ce que Google prend en compte les critères d’usage dans sont algorithme de classement? Une question comme beaucoup d’autres revient chaque année et provoque des débats acharnés.
Si on essaye de se rappeler ce que disaient les porte-paroles de Google au cours de ces dernières années sur la prise en compte du comportement des utilisateurs:
- soit ils esquivaient la réponse,
- soit ils expliquaient que c’étaient des signaux avec trop de bruit et sujets au spam,
- soit ils le niaient ouvertement.
- En 2015 Gary Illyes lors de SMX Advanced a évoqué qu’ils utilisaient les données sur les clics, mais juste pour évaluer les résultats ou entrainer l’algorithme et pas pour influencer les rankings.
Bref, à ma mémoire historiquement Google n’a jamais reconnu utiliser les facteurs d’usage dans son algorithme de classement.
Et voilà, lundi 18 mars quand toute la communauté SEO était surtout préoccupée par Google March Update, Bill Slawski découvre un nouveau brevet déposé par Google le 12 mars et intitulé “Modification du classement des résultats de recherche en fonction des retours implicites des utilisateurs” ou “Modifying search result ranking based on implicit user feedback” en version originale.
Ce n’est pas un brevet qui tombe soudainement du ciel, car il s’agit du brevet déjà existant déposé encore en février 2014 et qui vient d’avoir sa 3ème mise à jour. Ce qui nous prouve une nouvelle fois que les idées y évoquées ne sont pas tombées dans l’oubli, mais restent toujours d’actualité.
D’ailleurs, l’équipe des auteurs du brevet est leadé par Hyung-Jin Kim, ingénieur de Google depuis 15 ans spécialisé dans la qualité des résultats de recherche.
De quels retours implicites s’agit-il?
Le document se construit autour du phénomène des “retours implicites des utilisateurs”. Il s’agit des signaux comportementaux qu’on envoie sans le savoir à Google en naviguant sur les pages des résultats de recherche et les documents y proposés.
Pour chaque clic de nombreux indicateurs utiles peuvent être collectés du côté du moteur de recherche:
- La Requête saisie par l’utilisateur.
- Le Document (page) sur lequel l’utilisateur a cliqué.
- Le Temps passé sur le document (page).
- La Langue de l’interface.
- Le Pays d’accès de l’utilisateur (google.co.uk etc.)
- Autres aspects liés à l’utilisateur ou à sa session.
Réunir et analyser tous ces indicateurs ensemble peut mettre en évidence si les utilisateurs restent satisfaits ou non des résultats proposés par le moteur de recherche.
L’évaluation se base généralement sur l’indicateur de Temps – qui mesure le temps passé entre le clic initial sur un document et le moment où l’utilisateur retourne dans les résultats de recherche et clique sur un autre document. Plus il est long, plus les utilisateurs semblent être satisfaits. On appelle ce phénomène “les clics longs”.
Clics courts, moyens, longs et last
En fonction de leur longueur tous les clics se répartissent en courts, moyens et longs.
Cette différenciation dépend évidemment de la requête. A côté de ces 3 catégories des clics on distingue également ce qu’on appelle les last-clics – ceux quand l’internaute ne retourne pas aux résultats de recherches.
Chaque catégorie des clics a son poids.
- Un clic court peut est considéré comme attribut d’une page de faible qualité et aura donc un poids faible (par exemple, 0,1).
- Un clic moyen peut révéler une page potentiellement utile et bénéficiera d’un poids plus élevé (par exemple, 0,5).
- Un clic long peut servir d’indicateur d’une page de bonne qualité et aura un poids bien plus élevé (par exemple, 1,0). Aussi appelé dans le brevet « good-clic ».
- Le last-clic (quand l’internaute ne revient pas aux résultats de recherches) peut être considéré comme indice probable d’une bonne page et avoir également un poids très élevé (par exemple, 0,9).
Clustering des internautes
En même temps, les utilisateurs sont tous différents, chacun avec ses tics, sa manière de choisir et de cliquer sur les résultats, et ce serait une erreur d’appliquer les mêmes règles à tout le monde.
Les auteurs du brevet proposent également de départager les internautes en différents clusters, notamment en fonction de leur expérience.
En effet, les utilisateurs plus expérimentés ont besoin de moins de temps pour trouver une information. Il est proposé donc d’appliquer des poids différents en fonction du comportement de recherche individuel, par exemple de prendre en compte la durée moyenne ou la fréquence des clics.
Ensuite, l’internaute peut être classifié en fonction de son historique de recherches. Notamment, si quelqu’un pose beaucoup de questions autour d’un sujet particulier, on peut supposer qu’il y est plutôt bien calé et les données sur ses clics peuvent être pondérées conséquemment pour ses futures requêtes dans le même domaine.
En finalement, l’apport de certains utilisateurs dans le poids des good-clics peut être plus important que celui des autres.
- Par exemple, il existe toujours les internautes qui cliquent inconsciemment sur plusieurs résultats du haut de la page (le poids de leurs good-clics peut être affaibli).
- Et au contraire il y a ceux qui ont plutôt l’habitude de choisir des résultats positionnés plus bas (ils sont moins nombreux, mais le poids de leurs good-clics peut être augmenté, car ils sont probablement plus délicats dans leur évaluation de ce qui constitue un bon résultat).
Coefficient multiplicateur pour l’algorithme de classement existant
L’objectif final de toutes les idées proposés dans le brevet est d’améliorer la qualité des résultats de recherche.
En tant que mesure de pertinence il est proposé d’utiliser les indicateurs composés tels que:
- nombre de clics longs / nombre de clics courts
- nombre de clics longs / nombre total de clics sur un document donné
Grâce aux indicateurs composés les documents avec peu de clics, mais qui sont dans leur majorité longs pourront au final avoir un poids plus élevé par rapport à que ceux qui sont positionnés plus haut et reçoivent grâce à cela beaucoup plus de clics avec peu de clics longs.
Il est proposé également d’y ajouter également un paramètre de lissage (“smoothing parameter”). Si le nombre total de clics n’est pas représentatif, le résultat sera proche du zéro.
Le paramètre de lissage peut aussi varier en fonction de langue-pays, notamment il peut être augmenté pour les pays qui historiquement génèrent plus de spam (par exemple, la Russie :). D’ailleurs la Russie est évoqué plusieurs fois dans le document, surtout dans les parties consacrées à la protection à la fraude.
Les auteurs du brevet proposent d’utiliser une nouvelle mesure en tant que coefficient multiplicateur pour le score de pertinence calculé par l’algorithme de classement existant.
Conclusion
- Sans doute, la mise à jour récente du brevet témoigne de l’intérêt porté par Google à l’analyse du comportement des internautes et sa possible application.
- L’analyse des critères d’usage proposée se limite uniquement aux comportement sur les pages de résultats de recherche, là ou Google maîtrise plus ou mois bien ce qui se passe.
- Tout le document est construit autour de la notion des “clics longs” comme principale mesure d’analyse de l’activité des utilisateurs et sur comment les pondérer en fonction des différents types de requêtes, d’internautes, de leur expertise et les particularités de leur localisation géographique.
- Les méthodes et indicateurs proposés par les auteurs du brevet vont bien au-delà d’une simple évaluation de la qualité des résultats de recherche, mais se veulent enrichir l’algorithme existant de classement et réaliser ce qu’on appelle le “Re-ranking”.
- Et évidemment, le brevet déposé ne veut aucunement dire que les éléments décrits sont mis au point ou même vont être mis au point. Cela nous apporte juste encore une preuve en plus qu’améliorer l’engagement et la rétention de l’audience, proposer le contenu le mieux adapté à la requête et à l’intention de recherche qui est derrière doit rester toujours parmi les missions prioritaires dans notre travail quotidien.
Salut Alexis,
ça fait plaisir de voir un blog reprendre vie. J’espere que le rythme de publication sera aussi régulier que le mien.
Pour le point de vue de Google, je me souviens avoir entendu la même chose qu’au SMX : Google ne peut pas le prendre en compte systématiquement, cela serait impossible à gérer (beaucoup trop d’informations à stocker). C’était donc principalement utilisé lorsqu’ils testaient les présentations de SERP, comme de l’AB testing.
Donc pour la SERP “par défaut”, les critères d’usage sont sûrement peu pris en compte. Par contre, ca me parait beaucoup plus exploitable pour la personnalisation des résultats. Mais comme on ne voit quasiment plus de SERP “par défaut” (cf http://www.canyouseome.com/seo-pourquoi-je-ne-vois-pas-les-memes-resultats/ ), au final…on revient toujours à la réponse du référenceur : ça dépend.
Bonjour.
> Donc pour la SERP « par défaut », les critères d’usage sont sûrement peu pris en compte
Je le pense aussi, mais de toutes les manières, on ne le saura pas:
c’est du reranking, donc google va continuer en toute bonne foi à affirmer que ça n’impacte pas les rankings (“ah bah oui, ranking et reranking c’est différent, vous voyez bien qu’on a pas menti”).