Mettre en place une stratégie SEO ne se fait pas au hasard. Cela demande de la rigueur, des outils et des méthodes.
Cet article liste toutes les méthodes de travail que nous utilisons dans la gestion de projet SEO, pour nos propres sites web ou pour les sites de nos clients.
Une gestion de projet SEO gagnante s’appuie sur des outils et sur des méthodes éprouvées. Le référencement naturel n’est pas une science exacte, mais s’appuie sur des bonnes pratiques, sur une architecture de qualité, sur des techniques solides, et sur des analyses et des recherches.
Il ne faut bien entendu par oublier la veille technologique, afin d’être à jour sur les nouveautés, les tendances, les changements algorithmiques ; les méthodes expliquées ici peuvent donc évoluer dans le temps.
Première partie : faire des recherches efficaces pour accompagner la stratégie SEO
Méthode 1 : recherches de mots clés, audits sémantiques
La recherche de mots clés, aussi appelée audit sémantique, est une étape fondamentale dans la stratégie SEO, car la visibilité d’un site internet se construit à partir des recherches internet effectuées par les internautes.
Une page publiée et destinée au référencement naturel doit correspondre à un « mot clé cible », ou, plus largement, à une thématique cible ; en effet, une page ne reçoit pas des visiteurs depuis Google que grâce à un mot clé unique, mais grâce à un ensemble de mots clés qui parlent du même sujet.
En d’autres termes, il faut d’abord savoir comment les internautes tapent des recherches, afin de savoir comment ils peuvent nous chercher, et nous trouver (« nous » étant bien entendu les pages de nos sites).
Les audits sémantiques listent les mots tapés dans les internautes concernant nos services (ou nos produits), avec des données factuelles telles que le volume de recherche mensuel, le CPC, etc. mais aussi des notes de performances subjectives (indicateur selon un algo qui donne une note de valeur au mot clé).
Ces audits sont à faire environ une fois par an, car les données peuvent évoluer et on peut découvrir de nouvelles tendances de recherche.
Méthode 2 : la recherche de tendances
L’outil Google Trends est très utile pour découvrir des tendances de recherche, soient liées à une actualité, soient des tendances de fond sur un sujet précis.
On passe par ce type de recherche quand on cherche des idées de contenus, quand on veut vérifier la popularité d’un mot clé pour compléter l’audit sémantique, ou parfois pour réfléchir avant de lancer un nouveau site.
Méthode 3 : l’analyse de la concurrence
Bien entendu, il est toujours très utile de surveiller, d’étudier l’état de la concurrence.
Il est par exemple possible de connaître la part de marché dans Google de différents sites web, selon une sélection de mots clés suivis (voir chapitre « suivi de position des mots clés »).
Il est également possible de connaître les tendances de trafic des concurrents, avec des outils tels que Similarweb, Semrush ou Serpstat.
Enfin, ces outils peuvent aussi nous renseigner sur les mots clés qui apportent des visites aux différents concurrents. Ce n’est pas aussi précis que si on avait accès à leur Search Console, bien entendu, mais cela peut donner des informations précieuses. On peut imaginer que dans certains cas, ce n’est pas un hasard si un site est bien référencé sur un mot clé donné. C’est donc un mot clé qui fait partie de sa stratégie SEO.
Deuxième partie : mettre en place un tracking et des tableaux de bords avancés et efficaces
Méthode 4 : faire des paramétrages avancés dans GTM
Google Tag Manager permet une plus grande souplesse dans le suivi d’un site web. Google Tag Manager permet de gérer aisément les tags JavaScript insérés sur un site, de modifier le code de suivi Google Analytics GA3, GA4, ou autre (tel que matomo par exemple), de gérer les conteneurs et d’ajouter divers tags JavaScript (pour des analyses d’ergonomie ou des tests A/B) sans avoir à relivrer le code du site.
L’utilisation avancée de GTM permet d’ajouter des variables personnalisées (type de page, nombre de mots de la page, etc.) et de suivre des événements spécifiques (clicks sur certains boutons, sur des emails, etc.)
Méthode 5 : mettre en place des tableaux de bords
Il est impossible de réaliser une gestion de projet SEO sans outil de suivi des visiteurs, mais également sans tableaux de bords personnalisés.
En général, on se contente des tableaux de bords par défaut de Google Analytics. Mais ils sont complexes à paramétrer et à trouver, et surtout, l’outil Google Analytics (ou ses concurrents) est une usine à gaz présentant des tonnes d’informations pas forcément utiles, qui parasitent la lecture et nous font perdre du temps.
C’est pourquoi un outil tel que Linker Studio (ex Data Studio) est une mine d’or : cet outil fonctionne un peu comme PowerPoint, car il permet d’ajouter des pages à un rapport, de se connecter à nos sources de données (Analytics, Search Console, base de données, etc.) et à mettre en forme les tableaux ou les graphiques montrant les données qui nous intéressent.
Ainsi, au quotidien, le suivi est facilité, car on voit immédiatement ce dont on a besoin pour le suivi du site. De plus, DataStudio permet de faire des filtres et des exports, sans limite.
Troisième partie : réaliser des analyses des données, surveiller les sites web
Méthode 6 : analyse de Google Search Console
Performances des résultats de recherche
La section la plus utilisée de Google Search Console est la section « Performances dans les résultats de recherche », qui fournit des statistiques sur les mots clés de visite du site, les pages, les pays, etc. C’est une section à la fois très riche et complexe d’utilisation, car il faut jouer avec les filtres, les onglets, et les exports.
Cet outil a des limites : les exports sont limités aux 1000 premiers mots, et on ne peut avoir en même temps la liste des pages et les mots clés associés à ces pages.
Ces limites sont levés par l’utilisation gratuite de Data Studio.
Discover
La section « Discover » de Google Search Console est très similaire à la section des performances des résultats de recherche, mais elle ne concerne que la visibilité du site dans Discover.
Discover est une fonctionnalité de Google assez récente et particulière : elle concerne les pages mises en avant dans un nouvel onglet sur mobile, proposant une curation de contenus fonction des cookies de l’utilisateur, donc de ses recherches précédentes et de ses centres d’intérêt. Les sites à grosse audience, publiant du contenu frais quotidien, de qualité, peuvent espérer avoir ce type d’exposition ; sans parler d’autres critères techniques.
Indexation
La section « Indexation » de Google Search Console est peut-être la plus riche d’enseignements sur la manière dont Google traite un site, mais aussi la plus complexe de cet outil.
Le suivi de l’indexation de Google permet de savoir comment le robot de Google, GoogleBot, traite les pages du site, et fournit notamment les informations suivantes :
- Quelles sont les pages en erreur (code retour non 200) et quelle est leur origine (le sitemap, un lien sur le site, un lien depuis un autre site, etc.), et quelles pages sont considérées comme des « soft 404 » (page en erreur mais qui n’envoie pas un code 404) ;
- Quelles pages ont des balises canoniques différentes de la page elle-même (ce qui implique que la page n’est pas indexable) ;
- Quelles pages sont explorées, mais pas indexées ; une inspection détaillée permet de comprendre la raison de la non indexation ;
- Quelles pages sont en attente d’indexation ;
- Quelles pages sont bloquées par le fichier robots.txt (ce qui interdit donc leur lecture par le robot, par définition).
Sitemaps
Il est recommandé de proposer un Sitemap au format XML en complément du maillage interne du site : le fichier Sitemap permet d’indiquer aux moteurs de recherche les URLs qu’ils doivent parcourir et indexer.
Le Sitemap permet en outre de suivre l’évolution de son taux d’indexation dans la Google Search Console, ce que l’on a vu dans le chapitre précédent sur l’indexation.
L’indexation donne en effet des informations filtrées soit sur les pages fournies par les Sitemaps, soit sur les pages autres, découvertes par d’autres manières.
Expérience sur la page
Les onglets « Expérience sur la page » de Google Search Console sont précieux, car ils nous informent de la manière dont Google voit les performances de nos pages, mesurées via les outils Lighthouse.
Cela permet non seulement de suivre l’évolution des performances (qui peuvent s’améliorer ou se dégrader selon les optimisations techniques ou les mises à jour de plugins) ou des mises à jour de Google (la note de performance peut évoluer suite à une mise à jour des algorithmes), mais également d’avoir accès aux explications de la note des pages qui demandent une amélioration, considérées comme lentes.
Ergonomie mobile
L’onglet « Ergonomie mobile » permet quant à lui de suivre les alertes des outils de Google concernant le rendu mobile des pages.
Ces alertes ne remplacent pas une analyse UX complète, mais permet de remonter des alertes automatiques.
Alertes et propositions d’améliorations
Google Search Console comporte bien d’autres fonctionnalités, plus ou moins utiles, plus ou moins simples à analyser.
Les différents onglets disponibles dans la section « Amélioration » permettent notamment de suivre des alertes liées à l’analyse des données structurées du site (les balises JSON-LD ou autres) :
- Analyse des fils d’Ariane
- Analyse des questions FAQ
- Analyse des champs de recherche associés
Méthode 7 : suivi de position des mots clés
Une fois que vous avez attribué un mot clé cible à chacune de vos pages stratégiques et indexables, après avoir réalisé un audit sémantique, il faut effectuer ce que l’on appelle un suivi de mots clés.
Cela consiste dans la vérification de la présence de votre page concernée dans les résultats de Google, et dans le calcul de sa position dans les résultats (dans les 3 premiers, ou en 1ère page, ou en page 2, etc.) ou de la position dans la page (en pixels par rapport au haut de la page).
Ce calcul doit être effectué régulièrement, afin d’avoir un historique de la position de vos pages pour les mots clés choisis. Il est également intéressant de suivre la position des concurrents sur ces mêmes mots clés, et de la part de marché de chaque site dans Google.
Il existe de nombreux outils pour faire cela, et nous avons choisi un outil assez récent et prometteur : Nozzle.
Méthode 8 : crawl régulier des sites
Le crawl d’un site web permet de simuler le passage d’un robot tel que Google Bot, et de lister toutes les pages d’un site accessibles depuis la page d’accueil.
La génération régulière d’un crawl d’un site donné est un des outils essentiels d’un référenceur, dans la stratégie SEO au long terme.
Cela permet de connaître l’inventaire complet d’un site (y compris les pages techniques, telles que les urls fournies dans les balises hreflang, les balises rel next / prev, ou dans les balises canonical), d’en sortir une grande quantité d’informations automatiquement.
Parmi les informations essentielles, listons celles-ci :
- Le code retour de la page
- La balise title
- Les titres H1/H2/Hn
- Le nombre de mots
- La taille de la page
- Les sessions organiques de la page, si le crawl est croisé aux données Analytics
- La profondeur de la page
- Le nombre de liens entrants
- etc
Ces informations sont primordiales à l’analyse SEO, car elles permettent de découvrir des problèmes techniques (accès à des pages qui devraient être bloquées, fuite de crawl, contenus dupliqués, etc.), de suivre l’inventaire des pages indexables et non indexables du site, de lire les balises SEO des pages de manière rapide et de lancer toute sorte d’analyse se basant sur les données.
Le crawl régulier est ainsi l’outil de départ de nombreuses autres analyses de supervision SEO, et l’outil permettant de réaliser une maintenance technique régulière, incluant la correction des pages en erreur, la suppression des contenus dupliqués et l’optimisation des balises.
Méthode 8 : analyse et gestion du netlinking
Un bon référencement s’appuie également sur un netlinking externe de qualité.
Ce netlinking correspond à des liens entrants, venant de pages distinctes, contextuellement cohérentes, et venant de domaines distincts et variés.
Il faut cependant que le rapport entre le nombre de domaines vous envoyant des liens (les domaines référerents) et le nombre de pages de ces domaines vous envoyant des liens soit cohérent : évitez à tout prix un seul domaine origine de backlinks avec des milliers de pages, comme cela arrive avec les liens de partenariat en colonne de page ou en bas de page (footer).
Vous pouvez vous appuyer sur la section « Liens vers votre site » de la Search Console, mais avec moins de précision et sans historique de l’évolution de votre netlinking qu’avec un outil tel que Majestic.com ou Ahref.com.
L’outil que nous utilisons pour ce suivi est Serpstat, un concurrent de Semrush.
Dans la stratégie SEO de base, la priorité est portée sur le suivi des risques en termes de netlinking (risques de pénalité dues à des backlinks de mauvaises qualité, ou en trop grands nombres).
Pour effectuer une mission de gestion et de création de backlinks, on peut passer par une plateforme dédiée, telle que Semjuice.
Méthode 9 : suivi de la disponibilité du site
La disponibilité d’un site (appelé souvent « uptime ») permet de rester informé rapidement sur les pannes d’un site, et ainsi d’en informer les équipes techniques.
Les données permettent également de connaître le taux de disponibilité, qui doit être le plus possible proche des 100% afin de ne pas générer de frustration chez les internautes et de s’attirer les foudres de Google.
Nous utilisons les outils betteruptime.com et New Relic pour le suivi de disponibilité et de la performance des sites.
Quatrième partie : l’analyse page à page
Méthode 10 : analyse SEO OnPage
Il est parfois très utile de se concentrer sur l’analyse d’une seule page, stratégique dans notre référencement, et d’en déduire des axes d’améliorations pour cette page unique.
Ces améliorations peuvent être techniques ou sémantiques, mais elles ne concerneront que la page en cours, sauf s’il s’agit d’ajouter des liens (internes ou externes) vers cette page.
Nous utilisons l’outil textfocus.net pour ce type d’analyse, ou le crawl du site, ou tout simplement les 2.
Ce travail d’optimisation d’une page en particulier peut être très utile pour gagner des places rapidement sur un mot clé précis, quand on est déjà classé sur ce mot clé, mais à une position insatisfaisante (page 2 ou plus de Google).
Cette méthode reste cependant limitée, car :
- Le référencement d’une page dépend aussi de la qualité de l’ensemble du site
- Il faut également vérifier si la page analysée n’a pas d’autres soucis autres que « onpage », par exemple si elle est en concurrence avec une autre page du site sur le même mot clé
- Il est impossible de prévoir les effets escomptés dans Google ; on ne fait que suivre les bonnes pratiques, tenter de faire au mieux, et rester patient. Il arrive que la page semble optimisée en tout point, mais qu’elle reste moins bien classée qu’une page concurrente, et les raisons ne sont pas toujours évidentes (domaine plus réputé ? Meilleure adéquation aux algos « EAT » de Google ? Meilleure ergonomie utilisateur ? Page beaucoup plus ancienne ?…)
Méthode 11 : analyse des performances des pages
L’analyse des performances des pages d’un site est une méthode de travail indispensable et complexe dans la stratégie SEO.
Il s’agit là de croiser les informations techniques et factuelles d’un crawl, pour en tirer un maximum de données sur les pages, et les performances organiques de ces pages, via Google Analytics et Google Search Console.
Certains outils de crawl proposent cette fonctionnalité ; mais il est aussi possible de passer par différents exports pour consolider toutes les données dans un tableau Excel. Nous avons parlé de cette méthode de travail complexe, basée sur des exports Data Studio, dans cet article.
Le résultat est très riche d’enseignements et permet notamment :
- De lister les pages inactives
- De repérer les pages qui se font concurrence en interne
- De repérer les balises en double, les pages en double, ou les balises title et meta description trop courtes ou trop longues
- De mettre en place des colonnes personnalisées pour mettre en place une méthode de travail et une liste d’action page à page.
Méthode 12 : validation des balises hreflang
Sur un site international, proposant des contenus en plusieurs langues, il est important de mettre en place les balises hreflang correctement.
Voici l’explication de Google à propos de cette balise : https://support.google.com/webmasters/answer/189077?hl=fr
Les balises hreflang ne sont pas simples à mettre en place, mais il existe des outils de vérification, tel que cet outil de Sistrix, ou Hreflang Testing Tool.
Méthode 13 : validation des données structurées
Les données structurées permettent aux robots de mieux appréhender le contenu de vos pages et de mieux valoriser votre page dans les résultats de recherche.
Comme Google, nous recommandons vivement de recourir au JSON-LD comme technique pour intégrer les données structurées. Il est possible de le faire autrement qu’en JSON-LD, mais c’est à terme un risque de régressions régulières, notamment lorsqu’on intègre les données structurées dans le « body » en cohabitation avec le html qui sert au rendu.
dans le « body » de la page, en cohabitation avec le html qui sert au rendu.
Google propose un outil gratuit de validation des données structurées, indispensable pour vérifier que les balises sont correctes sur le plan technique : https://search.google.com/test/rich-results/
Il est possible de vérifier les données structurées de plusieurs pages en même temps en utilisant l’outil de crawl Screaming Frog.
Méthode 14 : vérification du maillage interne
Comme évoqué au sujet de l’analyse SEO “on page”, on peut également s’intéresser à la popularité interne d’une page données, ou d’un groupe de pages, une section de site.
Les éléments à prendre en compte dans le maillage interne sont le nombre de liens vers la page, et les ancres de liens utilisées (l’ensemble du contenu qui se situe à l’intérieur de la balise <a>).
Ces ancres de lien doivent être descriptives et variées, si possible.
L’analyse du maillage interne vers une page ou une section du site se fait avec l’aide des outils de crawl, bien que Google Search Console donne également quelques informations sur ces sujets, mais de manière moins exploitables.
Merci d’avoir partagé vos stratégies SEO et de m’avoir inspiré de bonnes pratiques.
Moi-même, j’aime beaucoup l’outil TextFocus, made in France.
Bravo pour votre expertise.
Merci pour votre commentaire, et je connais bien Textfocus pour en être l’éditeur 😉 Eh oui, plusieurs cordes à mon arc !