1.fr a analysé les champs lexicaux et positionnements dans les moteurs de recherche de millions de pages francophones. La conclusion met en évidence que les pages les mieux classées contiennent généralement un champ lexical plus étoffé sur l’expression visée, comparativement aux pages de classement inférieur.
Fort de cette observation, 1.fr propose donc un service d’optimisation des champs lexicaux. Concrètement, si votre objectif est de positionner une page sur l’expression « SEO », 1.fr vous indiquera si votre champ lexical « SEO » est satisfaisant, ou comment le modifier en conséquence pour le renforcer.
Une fois l’optimisation terminée. Le champ lexical visé sera le premier de la page en terme de poids et assez riche pour tenir la comparaison vis-à-vis des pages concurrentes.
Pour ce faire, les expressions de la page sont comparées entre elles et regroupées par affinité. Exemple : il y a affinité entre « pomme » et « compote », mais pas entre « pomme » et « plaquette de frein ». Ainsi il y a extraction des différents champs lexicaux que compose la page. Les champs lexicaux extraits sont des regroupements des expressions qui sont en rapport étroit sur un thème précis.
Exemple : le champ « pomme » pourra contenir « compote », « fruits », « pommier », « récolte », …
Lorsqu’un rédacteur souhaite créer un contenu pour cibler une requête précise, cela implique la rédaction d’un texte riche comprenant un champ lexical riche et exhaustif autour de la requête ciblée. 1.fr est une aide précieuse lors de cette étape car il fournit alors une vue précise des champs lexicaux d’une page : le champ lexical visé (et les coocurences intéressantes pour le renforcer), mais également les champs lexicaux parasites qui peuvent être présents (et les termes à supprimer du texte pour avoir un résultat global plus cohérent et facilement interprétable pour un robot).