Depuis son lancement, Google classe les sites web en fonction de leur popularité. Ses concepteurs considèrent à l’époque que cette popularité est fonction du nombre de liens externes pointant vers un même site. Ainsi, plus un nom de domaine peut revendiquer de liens externes pointant vers ses pages, et plus celui-ci est populaire, et donc mérite d’être positionné dans les meilleurs résultats.
Si cela pouvait être pertinent à ce moment, ce principe de base de l’algorithme Google est rapidement apparu comme une faille. En effet, il suffisait alors d’échanger ou d’acheter des liens par centaines pour immédiatement être propulsé en première page.
En 2012, celui qui est déjà leader de la recherche en ligne siffle la fin de la manipulation de ses SERPs en déployant un filtre dénommé Google Pingouin. Il vise à pénaliser tous les sites qui ont ou qui seraient tentés de passer outre ses guidelines en faisant l’acquisition de liens de piètre qualité et assurément destinés à manipuler les résultats.
Aujourd’hui, la vitesse de chargement, le https ou encore l’expérience utilisateur (UX) font partie des centaines de critères qui influent sur les SERPs. L’objectif de Google est, certes, d’affiner les résultats qu’il propose pour que ceux-ci soient le plus pertinents possibles. Mais c’est aussi pour lui une occasion d’atténuer la portée de ce qui fait le fondement de son fonctionnement, le netlinking.
Si celui-ci a perdu de sa superbe, c’est toujours un puissant levier de visibilité, l’un de ces fondamentaux du SEO qui doit impérativement faire partie de toute bonne stratégie de référencement naturel pérenne.