SEO White Hat et SEO Black Hat

SEO.fr » Guide du SEO » SEO White Hat et SEO Black Hat

Dans la sphère du SEO, on a tendance à différencier deux types de référenceurs / techniques de référencement. Le SEO White Hat et le SEO Black Hat. Docteur Jekyll et Mister Hyde. L’un serait bon, en accord avec les recommandations de Google (notamment), l’autre serait mauvais et risqué car il se jouerait des faiblesses des algorithmes des moteurs de recherches.

seo-techniquesSEO White Hat

Le SEO White Hat consiste à optimiser le site sans utiliser d’artifices. Le contenu est la priorité, tandis qu’on essaie de le rendre le plus visible dans les moteurs de recherche. Il s’agit plus d’une stratégie à long terme : du bon contenu obtiendra toujours, tôt ou tard, de nombreux liens et, donc, un bon classement.

Ces pratiques sont totalement en accord avec les recommandations officielles de Google, le leader de la recherche sur internet. Ces dernières visent à offrir aux internautes un web de qualité et des résultats pertinents. Ici par de sur-optimisation, de création artificielle de backlinks. Seulement des optimisations « propres ». On améliore les performances du site, on met en place une architecture cohérente, une interface utilisateur efficace. On crée aussi du contenu et on met à jour régulièrement son site, avec toujours comme objectif final d’apporter de la valeur à ses visiteurs.

Techniquement, le SEO White Hat va créer une réputation durable pour un nom de domaine. Aucun risque que le site soit pénalisé par une future mise à jour des algorithmes de Google. Le référenceur doit simplement s’adapter aux évolutions de son milieu. A long terme, c’est évidemment la pratique à privilégier.

SEO Black Hat

Le SEO black hat, c’est le côté obscur de la Force, visant à obtenir d’excellents classements en très peu de temps. Cela signifie utiliser des méthodes interdites par les moteurs de recherche. Par exemple du texte invisible (caché par une image ou de la même couleur que le fond), ou utiliser des scripts qui vont afficher un contenu différent, suivant que le visiteur soit un robot ou un humain : la page indexée est donc différente de la page vue par les internautes (cette technique est connue sous le terme cloaking) ! Les référenceurs black hat utilisent aussi des programmes-robots spammant les forums.

Cela peut parfois accomplir des miracles, tout en étant très risqué. Des sociétés comme BMW et Ricoh se sont fait prendre la main dans le sac. La sanction fut immédiate : suppression des sites incriminés de Google. Il est évident qu’un site hors Google n’existe plus. Si la sanction n’est pas toujours aussi sévère (le plus souvent, vous êtes pénalisé par une rétrogradation dans le classement), c’est ce qui vous attend si vous jouez trop avec le feu.

Le SEO Black Hat se joue de la « faiblesse » des algorithmes. Il en exploite les failles. Les résultats sont donc surprenants, mais toute faille a vocation à être comblée. Régulièrement les mises à jour des algorithmes de Google pénalisent de nombreux sites ayant bénéficiés d’optimisations douteuses. L’inconvénient du SEO Black Hat est donc son espérance de vie. Il n’est pas recommandé car il demande beaucoup de temps, de retouches, de corrections après certaines mises à jour.

Si vous êtes une entreprise ou un site important, tenez-vous éloigné de ces pratiques. Sur le long terme vous serez toujours perdant. La pénalité algorithmique ou manuelle n’est jamais très loin. Avez-vous vraiment envie de prendre un tel risque ?

Le travail à la main peut mener au Black Hat SEO

Il persiste quelques croyances qui ont la vie dure concernant le White Hat SEO et le Black Hat SEO. L’une d’entre elle serait que si l’on fait un travail manuellement, c’est à dire en y passant du temps, en écrivant son contenu soit même (ou en le commandant), en choisissant ses techniques et ses spots, on se rapproche comme par magie de la sacro-sainte zone seo White Hat. Parce que après tout, si on y passe du temps et que l’on ne fait pas forcément dans la masse, c’est forcément de qualité, donc forcément quelque chose que Google apprécie

Il n’y a pas plus faux. Sans les bonnes connaissances, on peut très vite tirer des conclusions hâtives et se tromper dans ses pratique de référencement. On peut croire que ses textes posés sur son réseau de site sont légitimes car on y a passé du temps, peut-être même qu’on peut se permettre en plus d’y mettre quelques ancres exactes.

Il est indispensable de connaître sur le bout des doigts les guidelines de Google pour savoir si ce que l’on fait, en masse ou avec parcimonie, peut rentrer dans la catégorie du Black Hat SEO. Le faire en toute conscience est défendable, le faire sans s’en rendre compte est regrettable.

L’automatisation peut rester dans le cadre du White Hat SEO

Une autre croyance qui a la vie dure serait que l’automatisation est forcément mauvaise. Automatiser c’est mal, c’est fait par un logiciel, sans intervention humaine une fois le processus paramétré et lancé. Il n’y a donc plus de qualité car pas de réflexion constante dans cette pratique.

C’est également faux. Ce serait premièrement négliger le travail de recherche et de planification réalisé en amont. Mais surtout c’est ne pas connaître les nombreux outils qui permettent d’optimiser des tâches intéressantes comme les redirections automatiques, les détections d’erreurs 404, le maillage interne, les intégrations des requêtes internautes dans une section de sa page, etc..

Le SEO Grey Hat est-il dominant ?

Le Grey Hat SEO utilise lui de nombreuses techniques pour tenter d’améliorer le référencement de son site tout en respectant une certaine éthique et une certaine qualité. Il s’emploie notamment à ne pas dépasser les limites dangereuses fixées par Google comme par exemple l’utilisation d’ancres exactes dans ses backlinks ou la duplication de contenu.

Si l’on s’en tient aux guidelines de Google, toute action visant à optimiser son référencement, outre l’optimisation technique de son site et la création de contenu original, est assimilable à du SEO Black Hat car elle a alors pour vocation à influer sur l’algorithme. Dès lors, le moindre article sponsorisé ou la moindre fiche d’annuaire créée suffirait à faire rentrer un site dans la catégorie de ceux utilisant des pratiques de SEO Black Hat.

Heureusement, en pratique Google est beaucoup plus flexible sur ce sujet et notamment le filtre Pingouin pour ce qui est des profils de liens d’un site. Mais les employés qui se chargent d’analyser les sites à la main sont plus strictes. Attention donc à bien choisir votre prestataire SEO ou à vérifier les pratiques qui vous mettez en oeuvre.

Partager cette ressource :

Postez une question

Une question à poser ? Un avis à partager ? Nos consultants SEO interviennent pour échanger avec vous.

Votre adresse e-mail ne sera pas publiée. Les champs indiqués avec un astérisque sont obligatoires.

4 commentaires. Posez votre question

Marc
14 avril 2014 15 h 06 min

Il serait inconsidéré de répondre aujourd’hui : « Oui, je consens à prendre un tel risque ». A moins que le référenceur souhaite monter une opération à durée de vie courte et espère donc un référencement spectaculaire et immédiat, sans avoir l’ambition de perdurer, le SEO Black Hat n’est plus aujourd’hui.
Si certains ont déclaré il y a peu : « le SEO est mort », il fallait nuancer leurs propos et préciser que le Black Hat et toutes ses techniques (cloaking, campagnes de liens, bourrage de mots-clés, duplicata de contenus, contenus invisibles, etc.) sont en train de se mourir. Et tant mieux pour l’internautes qui obtiennent ainsi de plus en plus de sites et de contenus de qualité au travers de leurs recherches, grâce aux pratiques du SEO White Hat !
Dans un pays comme la France où Google possède plus de 91% de parts de marché, est-il vraiment utile de préciser qu’il serait idiot de se détourner du SEO White Hat ? Miser sur les failles des algorithmes Google est une stratégie sans ambition. Les mises à jour de Panda ou Pingouin sont récurrentes et viennent renforcer le système d’indexation de Google. Vous le dîtes vous-même : « toute faille a vocation à être comblée ».
Mais à votre connaissance, savez-vous s’il existe encore quelques failles à combler dans ce système parfaitement huilé et de plus en plus complet ?

Mathieu (seo.fr)
14 mai 2014 9 h 12 min

Bonjour. Pour moi la « faille » la plus évidente de Google concerne les contenus. Il est quasiment impossible pour un robot de différencier un bon contenu d’un mauvais contenu (on retrouve des mots clés, des cooccurrences dans tous les cas). Ce n’est pas réellement une faille cependant car Google utilise des moyens détournés pour contrôler le contenu.

Il inspecte l’environnement du site, les liens reçus, les partages. Je pense que l’authorship et l’author rank vont également dans ce sens.

Évidemment, pour ne pas rentrer dans le Black Hat, il existe toujours des techniques surprenantes pour se jouer des algorithmes. Il suffit de regarder les SERPs : un des exemples que j’apprécie toujours est celui de Tiger SEO sur la requête « consultant seo ». Les backlinks et redirections sont encore très manipulables à l’heure actuelle.

Marc
20 novembre 2014 9 h 15 min

Je rebondis sur votre dernier commentaire Mathieu. Nombre de rédacteurs se sont rués vers Google+ afin de profiter de l’authorship lancé par Google. Ce dernier n’existant plus aujourd’hui, je me demande la raison de cet arrêt soudain, alors que je trouvais cela très intéressant ? Faire gagner des abonnés au réseau social…?

De même, vous parlez de l’authorank, qui est censé évaluer la popularité et le crédit d’un auteur sur un domaine donné/une thématique je crois. Avons-nous des preuves tangibles que Google utilise un tel indice de classement parmi les auteurs ??

Mathieu (seo.fr)
21 novembre 2014 9 h 42 min

@Marc : Il ne faut pas confondre l’arrêt de l’affichage de la vignette d’authorship dans les résultats de recherche et l’arrêt de l’authorship. L’authorship et l’author rank sont toujours d’actualité et utilisés dans l’algorithme de Google.

Nous en sommes encore aux débuts, leur poids et leur utilité peut donc ne pas sembler flagrante. Mais dans un avenir proche, ces derniers risquent de prendre un peu plus de poids. C’est partie intégrante de la stratégie de Google afin de mieux identifier les contenus et les auteurs de qualité.

Un peu de lecture sur le sujet :
http://searchengineland.com/yes-google-specifically-within-depth-articles-186627
http://searchengineland.com/author-rank-authorship-rankings-that-eric-schmidt-book-quote-153253