Nom*

Site internet*

E-mail*

Téléphone*

Les fondamentaux du référencement naturel

SEO.fr » Guide du SEO » Les fondamentaux du référencement naturel

Cet article a pour objectif de vous exposer la liste des optimisations nécessaires à mettre en place sur un site web en vue d’améliorer votre référencement naturel. Bien sûr, il n’a pas vocation à être exhaustif, chaque site étant différent en fonction de sa typologie (e-commerce, corporate, blog) et de la maturité du site (en cours de gestation, de création, de refonte, etc.).

Anatomie et SEO : les différentes couches du référencement naturel

Quoiqu’il en soit, le SEO repose, encore et toujours, sur le tryptique suivant :

  • L’architecture globale du site qui comprend :
    • le maillage des pages entre elles, l’arborescence globale,
    • le niveau de profondeur des pages,
    • la technologie utilisée,
    • la propreté et la lisibilité du code source par les moteurs,
    • le temps de chargement des pages,
    • la navigabilité,
    • le taux de duplication des pages,
  • La sémantique des pages qui contient, entre autres :
    • l’optimisation des métas title et description,
    • la présence de contenu original,
    • le balisage sémantique des pages,
    • le maillage interne des pages,
    • l’optimisation des contenus multimédias (images, vidéos, etc.),
  • Le netlinking qui prend différentes formes :
    • les liens en provenance des sites d’annuaires, de communiqués de presse, blogs, forums, sites partenaires, etc.,
    • les backlinks issus des réseaux sociaux,

Le centre névralgique de ces trois critères repose sur la sélection des mots-clés qui est au cœur de la stratégie. D’ailleurs, on peut imaginer une analogie entre le référencement et le corps humain :

  • anatomie-et-seola structure du site correspond au squelette, à l’ossature du site web. Il s’agit de fondations qui, une fois mises en place, demeurent intangibles.
  • la sémantique qui représente les poumons. C’est elle qui alimente le site en oxygène et permet au site de continuer à vivre au lieu de passer pour obsolète auprès de Google.
  • le netlinking symbolise les muscles. Il permet au site d’être endurant et de tenir sur la durée. Mais c’est comme tout, à vouloir aller trop vite, trop mal, on finit par s’essouffler. Il faut garder un rythme de soumissions pertinent.
  • les mots-clés, comme nous l’avons déjà dit au-dessus, caractérisent le cœur de la stratégie de référencement. Sans eux, votre site serait une coquille vide et l’ensemble des étapes précédentes seraient bien inutiles.

D’autres critères viendront nativement influencer le positionnement d’un site web dans les moteurs de recherche. Parmi un nombre important de facteurs de ranking, en voici les principaux :

  • l’ancienneté du nom de domaine,
  • l’autorité du site dans son domaine,
  • le taux de rebond,
  • le PageRank,
  • le volume de pages indexées,
  • une présence active sur les réseaux sociaux,

A présent, nous allons entrer dans le détail des actions qui permettent d’améliorer votre référencement organique sur le long terme.

Agir en faveur du référencement naturel : la check-list des bonnes actions

Optimisations techniques

Faciliter le travail d’indexation des moteurs de recherche

Le fichier sitemap.xml

Placé à la racine d’un site sur le serveur, le fichier sitemap.xml permet de :

  • préciser aux moteurs l’ensemble des URL qui composent votre site
  • leur signaler si des modifications ont eu lieu sur le site depuis le dernier passage des spiders

Illustration d’un fichier sitemap.xml :

sitemap

Le fichier robots.txt

Placé à la racine d’un site sur le serveur ftp, le fichier robots.txt permet de :

  • indiquer aux moteurs les pages à désindexer sur votre site

Illustration d’un fichier robots.txt :

robots

Améliorer l’expérience utilisateur

La page 404 personnalisée

Lorsqu’un internaute arrive sur votre site et échoue sur une page d’erreur 404, il risque de le quitter prématurément, augmentant ainsi votre taux de rebond qui est l’un des critères majeurs de positionnement d’un site web. Pour y remédier, il est indispensable de mettre en place une page 404 personnalisée qui redirige les utilisateurs vers les principales rubriques de votre site, l’objectif étant de garder l’internaute sur votre site plutôt que de le laisser partir.

Le temps de chargement des pages

Le temps de chargement des pages est un facteur de positionnement déterminant. Les moteurs de recherche le prennent de plus en plus en compte dans le calcul du classement des pages de résultats. Il est donc essentiel de veiller à ce que votre site se charge rapidement.

Un site trop lent entraîne un départ prématuré des internautes avant la fin du chargement de la page, ce qui a pour conséquence l’augmentation du taux de rebond, cette hausse étant nuisible à la visibilité d’un site.

Dans certains cas extrêmes, il peut même arriver que les Googlebot (robots qui indexent les sites web), ne parcourent pas/ plus un site internet à cause d’un temps de réponse des pages trop élevé. Par exemple dans le cas d’un serveur de mauvaise qualité ou en surcharge de trafic, il a été confirmé que le Googlebot puisse prendre la décision de ne pas « crawler » le site afin d’éviter une charge supplémentaire du serveur pouvant entraîner sa mise hors ligne.

Exemples d’optimisations possibles :

  • compression gzip des images,
  • mise en cache des ressources statiques dans le navigateur,
  • spécification de la dimension des images dans le code HTML,
  • usage des sprite CSS,
  • limitation du nombre de requêtes entre le serveur et le navigateur,
  • différer l’analyse du JavaScript par les navigateurs web,
  • éviter les hébergements gratuits,

Partir à la chasse au duplicate content

Le duplicate content sur un site est l’un des principaux fléaux susceptible de lui causer une pénalité. En effet, si Google aperçoit deux pages de mêmes URL ayant le même contenu, il peut prendre des mesures qui consistent à exclure un site (ou une page) des résultats des moteurs de recherche, rendant votre visibilité nulle.

Il existe plusieurs types de duplication :

  • la duplication totale : un site web identique entre 2 noms de domaine (Ex : www.site1.com et www.site1.fr), l’absence de redirection en 3W (Ex : www.site1.com et site1.com), etc.,
  • la duplication partielle : plusieurs pages sont optimisées sur le même title, le même titre, le même contenu repris en partie.

Par ailleurs, des dizaines d’autres cas de duplication de contenu coexistent.

Optimisations sémantiques

Donner de la lecture aux moteurs de recherche

Vous l’aurez deviné, la matière première d’un site web, c’est son contenu… Sans cela, les moteurs de recherche sont bien incapables de le positionner au sein des pages de résultats, faute d’avoir suffisamment d’informations pour comprendre ce dont votre site parle. Mais, ce n’est pas tout… Avoir du texte, c’est bien, encore faut-il qu’il soit optimisé pour le référencement. Pour ce faire, veillez à placer vos mots-clés dans les zones chaudes de chacune de vos pages (méta title, titres et sous-titres, header, liens, début de paragraphe, etc.). Ne commettez pas l’erreur suprême de ne cibler qu’une page pour une quantité infinie d’expressions. Un site bien fait est principalement un site qui permet de cibler un mot-clé par page. Si ce n’est pas le cas, vous limitez vos chances d’être bien positionné dans les moteurs de recherche sur une expression ciblée car, en effet, vous diluez le poids de vos mots-clés relativement les uns par rapport aux autres.

Bien penser l’architecture de votre site en amont et la façon dont vos pages seront organisées et reliées les unes aux autres sera alors d’une importance capitale. En termes d’optimisation sémantique, le maillage interne est également fondamental pour favoriser certaines pages dans les moteurs de recherche. Il permet également d’éviter que le site ne reçoive que des liens entrants, indicateur éventuel de sur-optimisation et de spam pour Google notamment.

Le netlinking : variez les backlinks

Le netlinking est devenu un véritable travail d’équilibriste. Trop de liens depuis une même ancre et, qui plus est, en provenance du même type de plateformes, aut ant vous dire tout de suite que vous serez, à terme, pénalisé. Des liens en quantité insuffisante, voire inexistants, et votre site souffrira d’un manque évident de visibilité. Quoiqu’on en dise, les liens sont l’essence même du web. Ils ont encore et toujours le vent en poupe, à cela près qu’aujourd’hui, la façon de les travailler a changé de cap. Il est temps désormais de naviguer avec prudence et de manœuvrer avec parcimonie pour éviter de sombrer dans l’œil du cyclone… le fameux ouragan Google qui pénalise les sites frauduleux, usant de techniques dites « spammy » telles que la sur-optimisation des ancres de liens et le bourrage de mots-clés sur une page ou encore la duplication et l’absence de contenus.

Les règles à respecter :

  • varier les ancres de liens, c’est-à-dire les mots-clés sur lequel le lien est placé (notoriété, mots-clés génériques, URL, mots-clés insignifiants, etc.),
  • diversifier son réseau de liens (partenaires, commentaires de blogs, annuaires, blogs, communiqués de presse, etc.),
  • varier les zones de mise en place du lien (contenu, footer, blogroll, etc.),
  • obtenir des liens depuis des sites d’autorité à fort PageRank (5/10) par exemple, mais aussi des sites au PageRank faible (1/10 par exemple),
  • acquérir des liens depuis des sites de même thématique ou thématique proche,
  • posséder un ratio de liens dofollow/nofollow partagé à 50%,
  • développer les liens en provenance des réseaux sociaux (Google +, Facebook, Twitter, etc.),
  • réaliser des liens sortants vers d’autres sites

Pour aller plus loin, vous pourrez également lire nos articles traitants des sujets suivants :

  • Les Rich Snippet (microdonnées, microformats).
  • Le Référencement local (Google+ Local).

Poser une question

Votre adresse e-mail ne sera pas publiée. Les champs indiqués avec un astérisque sont obligatoires.

6 questions Posez votre question

Hervédu13
9 février 2016 14 h 07 min

La difficulté réside quand même au temps à accorder au référencement naturel quand on doit déjà mettre en oeuvre des actions marketing sur son site internet.
J’ai ce problème avec ma boutique de prêt à porter sur internet. Je dois rentrer les produits, m’occuper des newsletter, animer les comptes des réseaux sociaux, faire le service après-vente etc…

Difficile donc quand il me reste du temps de suivre toutes les recommandations SEO que vous nous listez. J’aimerais prioriser, je dois donc me concentrer prioritairement sur le contenu et la technique ? ou plutôt penser à nouer des partenariats pour avoir de nouveaux liens menant vers mon site ?

Merci !

Répondre
Mathieu
Mathieu
9 février 2016 15 h 40 min

@hervédu13 Il y a des optimisations à faire sur son site internet qui se révéleront payant au long terme, pour une boutique de prêt à porter, le nombres de pages d’articles devraient suffirent pour le contenu (penser aux catégories et sous catégories)
l’optimisation technique est importante aussi, mais ce qui fait le plus de poids dans l’algorithme de Google c’est les liens qui pointent vers votre sites, par contre c’est peut être plus compliquer de récupérer des liens (ça dépend si vous êtes connu dans le secteur, et surtout éviter d’en acheter et utiliser des ancres neutres … gare aux sanctions du pingouin.

Mathieu
Mathieu
26 février 2015 9 h 36 min

@Antonio : La fraîcheur du contenu est effectivement quelque chose d’important pour Google. Il ne faut pas hésiter à retravailler le contenu de ses pages les plus importantes de temps à autre (mise à jour, rajout d’information). Une technique intéressante et pourtant très simple consiste à autoriser les commentaires sur vos pages. Ainsi ce sont les questions que vous recevrez et les réponses que vous apporterez qui mettrons à jour régulièrement le contenu de vos pages. Il faut simplement faire attention à la pertinence des Q/R afin de ne pas nuire au champ sémantique de la page de base.

Répondre
Antonio
24 février 2015 9 h 01 min

Bonjour,

je suis à la tête d’un site de décoration sur lequel j’ai tenté d’appliquer l’ensemble des techniques SEO que j’ai pu rassembler moi-même. Le site est désormais « fini » (pour ce qui est du lancement j’entends), mais une question m’intrigue beaucoup : celle de l’actualisation de mes pages.

Comment, sur un site comme le mien, qui vend des services de décoration (coaching, achat) et non pas des produits, je peux rendre mon site plus dynamique et lui apporter du contenu de façon régulière ? Je ne veux pas que Google et les internautes croient qu’il ne se passe rien !

Répondre
Mathieu (seo.fr)
Mathieu (seo.fr)
2 février 2015 16 h 57 min

@Lolo : La question est très intéressante et mériterait sans doute une étude afin d’évaluer l’importance de la title dans un cas de duplicate content.

Les titres que vous citez sont exclusivement orientés pour augmenter le taux de clics, ce ne sont absolument pas des titres pensés pour le SEO (pas ou peu de mots clés, si mots clés ils sont à la fin de la title, début de la title générique).

Ce qui est certains, c’est que comme pour le contenu, Google n’aime pas ce qui se ressemble beaucoup ou est identique. Les titles presque identiques ne sont donc pas vraiment idéales. L’idéal étant que chaque title soit vraiment unique.

Maintenant l’autre point intéressant dans cette réflexion est de savoir si des titles trop similaires pénalisent le référencement d’un site ou d’une page. Sans étude sous la main je n’affirmerais rien, mais personnellement je pense que cela pourra jouer contre l’article sur une thématique concurrentielle, mais qu’on est encore très loin de rentrer dans le cadre pénalisant du duplicate content si le contenu de l’article lui est unique (ce qui est généralement le cas dans ce genre d’articles).

Répondre
Lolo
2 février 2015 10 h 54 min

Je m’interroge sur le duplicate content.
Je constate aujourd’hui que la plupart des sites qui fournissent du contenu d’actualité ou des articles façon « magazine » comme l’on dit, partent sur des titres du style : « Les 5 solutions pour », « Top 10 des » ou « 3 conseils pour ». S’ils le font, j’imagine que c’est parce que ces titres ont un taux de clics plus important. Mais, du coup, le risque de dupliquer les titres est plus important je crois ? Qu’arrive-t-il si le titre est identique et non le contenu ?

Répondre