06 78 95 06 63 contact@beweb.fr
Consultant SEO : Expert référencement de site internet à Rennes
  •  Consultant SEO
  • Services SEO
  • Services Web
  • Blog
  • Contact
Skip to content
strategie seo

Stratégie SEO : les 14 méthodes de travail que nous utilisons le plus en 2024

Par Christophe HilmoineSEO18 décembre 20237 février 2024 27–35 minutes de lecture
  • Partagez cet article :
  • share on facebook
  • share on twitter
  • share on linkedin

Mettre en place une stratégie SEO ne se fait pas au hasard. Cela demande de la rigueur, des outils et des méthodes.

Cet article liste toutes les méthodes de travail que nous utilisons dans la gestion de projet SEO, pour nos propres sites web ou pour les sites de nos clients.

Une gestion de projet SEO gagnante s’appuie sur des outils et sur des méthodes éprouvées. Le référencement naturel n’est pas une science exacte, mais s’appuie sur des bonnes pratiques, sur une architecture de qualité, sur des techniques solides, et sur des analyses et des recherches.

Il ne faut bien entendu par oublier la veille technologique, afin d’être à jour sur les nouveautés, les tendances, les changements algorithmiques ; les méthodes expliquées ici peuvent donc évoluer dans le temps.

Première partie : faire des recherches efficaces pour accompagner la stratégie SEO

Méthode 1 : recherches de mots clés, audits sémantiques

La recherche de mots clés, aussi appelée audit sémantique, est une étape fondamentale dans la stratégie SEO, car la visibilité d’un site internet se construit à partir des recherches internet effectuées par les internautes.

Une page publiée et destinée au référencement naturel doit correspondre à un « mot clé cible », ou, plus largement, à une thématique cible ; en effet, une page ne reçoit pas des visiteurs depuis Google que grâce à un mot clé unique, mais grâce à un ensemble de mots clés qui parlent du même sujet.

En d’autres termes, il faut d’abord savoir comment les internautes tapent des recherches, afin de savoir comment ils peuvent nous chercher, et nous trouver (« nous » étant bien entendu les pages de nos sites).

Les audits sémantiques listent les mots tapés dans les internautes concernant nos services (ou nos produits), avec des données factuelles telles que le volume de recherche mensuel, le CPC, etc. mais aussi des notes de performances subjectives (indicateur selon un algo qui donne une note de valeur au mot clé).

Ces audits sont à faire environ une fois par an, car les données peuvent évoluer et on peut découvrir de nouvelles tendances de recherche.

Méthode 2 : la recherche de tendances

L’outil Google Trends est très utile pour découvrir des tendances de recherche, soient liées à une actualité, soient des tendances de fond sur un sujet précis.

On passe par ce type de recherche quand on cherche des idées de contenus, quand on veut vérifier la popularité d’un mot clé pour compléter l’audit sémantique, ou parfois pour réfléchir avant de lancer un nouveau site.

google trends gpt3
google trends gpt3

Méthode 3 : l’analyse de la concurrence

Bien entendu, il est toujours très utile de surveiller, d’étudier l’état de la concurrence.

Il est par exemple possible de connaître la part de marché dans Google de différents sites web, selon une sélection de mots clés suivis (voir chapitre « suivi de position des mots clés »).

Il est également possible de connaître les tendances de trafic des concurrents, avec des outils tels que Similarweb, Semrush ou Serpstat.

Enfin, ces outils peuvent aussi nous renseigner sur les mots clés qui apportent des visites aux différents concurrents. Ce n’est pas aussi précis que si on avait accès à leur Search Console, bien entendu, mais cela peut donner des informations précieuses. On peut imaginer que dans certains cas, ce n’est pas un hasard si un site est bien référencé sur un mot clé donné. C’est donc un mot clé qui fait partie de sa stratégie SEO.

Deuxième partie : mettre en place un tracking et des tableaux de bords avancés et efficaces

Méthode 4 : faire des paramétrages avancés dans GTM

Google Tag Manager permet une plus grande souplesse dans le suivi d’un site web. Google Tag Manager permet de gérer aisément les tags JavaScript insérés sur un site, de modifier le code de suivi Google Analytics GA3, GA4, ou autre (tel que matomo par exemple), de gérer les conteneurs et d’ajouter divers tags JavaScript (pour des analyses d’ergonomie ou des tests A/B) sans avoir à relivrer le code du site.

L’utilisation avancée de GTM permet d’ajouter des variables personnalisées (type de page, nombre de mots de la page, etc.) et de suivre des événements spécifiques (clicks sur certains boutons, sur des emails, etc.)

Méthode 5 : mettre en place des tableaux de bords

Il est impossible de réaliser une gestion de projet SEO sans outil de suivi des visiteurs, mais également sans tableaux de bords personnalisés.

En général, on se contente des tableaux de bords par défaut de Google Analytics. Mais ils sont complexes à paramétrer et à trouver, et surtout, l’outil Google Analytics (ou ses concurrents) est une usine à gaz présentant des tonnes d’informations pas forcément utiles, qui parasitent la lecture et nous font perdre du temps.

C’est pourquoi un outil tel que Linker Studio (ex Data Studio) est une mine d’or : cet outil fonctionne un peu comme PowerPoint, car il permet d’ajouter des pages à un rapport, de se connecter à nos sources de données (Analytics, Search Console, base de données, etc.) et à mettre en forme les tableaux ou les graphiques montrant les données qui nous intéressent.

looker studio exemple
looker studio exemple

Ainsi, au quotidien, le suivi est facilité, car on voit immédiatement ce dont on a besoin pour le suivi du site. De plus, DataStudio permet de faire des filtres et des exports, sans limite.

looker studio conversions
looker studio conversions

Troisième partie : réaliser des analyses des données, surveiller les sites web

Méthode 6 : analyse de Google Search Console

Performances des résultats de recherche

La section la plus utilisée de Google Search Console est la section « Performances dans les résultats de recherche », qui fournit des statistiques sur les mots clés de visite du site, les pages, les pays, etc. C’est une section à la fois très riche et complexe d’utilisation, car il faut jouer avec les filtres, les onglets, et les exports.

Cet outil a des limites : les exports sont limités aux 1000 premiers mots, et on ne peut avoir en même temps la liste des pages et les mots clés associés à ces pages.

Ces limites sont levés par l’utilisation gratuite de Data Studio.

Discover

La section « Discover » de Google Search Console est très similaire à la section des performances des résultats de recherche, mais elle ne concerne que la visibilité du site dans Discover.

Discover est une fonctionnalité de Google assez récente et particulière : elle concerne les pages mises en avant dans un nouvel onglet sur mobile, proposant une curation de contenus fonction des cookies de l’utilisateur, donc de ses recherches précédentes et de ses centres d’intérêt. Les sites à grosse audience, publiant du contenu frais quotidien, de qualité, peuvent espérer avoir ce type d’exposition ; sans parler d’autres critères techniques.

Indexation

La section « Indexation » de Google Search Console est peut-être la plus riche d’enseignements sur la manière dont Google traite un site, mais aussi la plus complexe de cet outil.

Le suivi de l’indexation de Google permet de savoir comment le robot de Google, GoogleBot, traite les pages du site, et fournit notamment les informations suivantes :

  • Quelles sont les pages en erreur (code retour non 200) et quelle est leur origine (le sitemap, un lien sur le site, un lien depuis un autre site, etc.), et quelles pages sont considérées comme des « soft 404 » (page en erreur mais qui n’envoie pas un code 404) ;
  • Quelles pages ont des balises canoniques différentes de la page elle-même (ce qui implique que la page n’est pas indexable) ;
  • Quelles pages sont explorées, mais pas indexées ; une inspection détaillée permet de comprendre la raison de la non indexation ;
  • Quelles pages sont en attente d’indexation ;
  • Quelles pages sont bloquées par le fichier robots.txt (ce qui interdit donc leur lecture par le robot, par définition).

Sitemaps

Il est recommandé de proposer un Sitemap au format XML en complément du maillage interne du site : le fichier Sitemap permet d’indiquer aux moteurs de recherche les URLs qu’ils doivent parcourir et indexer.

Le Sitemap permet en outre de suivre l’évolution de son taux d’indexation dans la Google Search Console, ce que l’on a vu dans le chapitre précédent sur l’indexation.

L’indexation donne en effet des informations filtrées soit sur les pages fournies par les Sitemaps, soit sur les pages autres, découvertes par d’autres manières.

Expérience sur la page

Les onglets « Expérience sur la page » de Google Search Console sont précieux, car ils nous informent de la manière dont Google voit les performances de nos pages, mesurées via les outils Lighthouse.

Cela permet non seulement de suivre l’évolution des performances (qui peuvent s’améliorer ou se dégrader selon les optimisations techniques ou les mises à jour de plugins) ou des mises à jour de Google (la note de performance peut évoluer suite à une mise à jour des algorithmes), mais également d’avoir accès aux explications de la note des pages qui demandent une amélioration, considérées comme lentes.

evolutions urls rapides search console
evolutions urls rapides search console

Ergonomie mobile

L’onglet « Ergonomie mobile » permet quant à lui de suivre les alertes des outils de Google concernant le rendu mobile des pages.

Ces alertes ne remplacent pas une analyse UX complète, mais permet de remonter des alertes automatiques.

Alertes et propositions d’améliorations

Google Search Console comporte bien d’autres fonctionnalités, plus ou moins utiles, plus ou moins simples à analyser.

Les différents onglets disponibles dans la section « Amélioration » permettent notamment de suivre des alertes liées à l’analyse des données structurées du site (les balises JSON-LD ou autres) :

  • Analyse des fils d’Ariane
  • Analyse des questions FAQ
  • Analyse des champs de recherche associés
ergonomie mobile
ergonomie mobile

Méthode 7 : suivi de position des mots clés

Une fois que vous avez attribué un mot clé cible à chacune de vos pages stratégiques et indexables, après avoir réalisé un audit sémantique, il faut effectuer ce que l’on appelle un suivi de mots clés.

Cela consiste dans la vérification de la présence de votre page concernée dans les résultats de Google, et dans le calcul de sa position dans les résultats (dans les 3 premiers, ou en 1ère page, ou en page 2, etc.) ou de la position dans la page (en pixels par rapport au haut de la page).

Ce calcul doit être effectué régulièrement, afin d’avoir un historique de la position de vos pages pour les mots clés choisis. Il est également intéressant de suivre la position des concurrents sur ces mêmes mots clés, et de la part de marché de chaque site dans Google.

Il existe de nombreux outils pour faire cela, et nous avons choisi un outil assez récent et prometteur : Nozzle.

Méthode 8 : crawl régulier des sites

Le crawl d’un site web permet de simuler le passage d’un robot tel que Google Bot, et de lister toutes les pages d’un site accessibles depuis la page d’accueil.

La génération régulière d’un crawl d’un site donné est un des outils essentiels d’un référenceur, dans la stratégie SEO au long terme.

Cela permet de connaître l’inventaire complet d’un site (y compris les pages techniques, telles que les urls fournies dans les balises hreflang, les balises rel next / prev, ou dans les balises canonical), d’en sortir une grande quantité d’informations automatiquement.

Parmi les informations essentielles, listons celles-ci :

  • Le code retour de la page
  • La balise title
  • Les titres H1/H2/Hn
  • Le nombre de mots
  • La taille de la page
  • Les sessions organiques de la page, si le crawl est croisé aux données Analytics
  • La profondeur de la page
  • Le nombre de liens entrants
  • etc

Ces informations sont primordiales à l’analyse SEO, car elles permettent de découvrir des problèmes techniques (accès à des pages qui devraient être bloquées, fuite de crawl, contenus dupliqués, etc.), de suivre l’inventaire des pages indexables et non indexables du site, de lire les balises SEO des pages de manière rapide et de lancer toute sorte d’analyse se basant sur les données.

Le crawl régulier est ainsi l’outil de départ de nombreuses autres analyses de supervision SEO, et l’outil permettant de réaliser une maintenance technique régulière, incluant la correction des pages en erreur, la suppression des contenus dupliqués et l’optimisation des balises.

Méthode 8 : analyse et gestion du netlinking

Un bon référencement s’appuie également sur un netlinking externe de qualité.

Ce netlinking correspond à des liens entrants, venant de pages distinctes, contextuellement cohérentes, et venant de domaines distincts et variés.

Il faut cependant que le rapport entre le nombre de domaines vous envoyant des liens (les domaines référerents) et le nombre de pages de ces domaines vous envoyant des liens soit cohérent : évitez à tout prix un seul domaine origine de backlinks avec des milliers de pages, comme cela arrive avec les liens de partenariat en colonne de page ou en bas de page (footer).

Vous pouvez vous appuyer sur la section « Liens vers votre site » de la Search Console, mais avec moins de précision et sans historique de l’évolution de votre netlinking qu’avec un outil tel que Majestic.com ou Ahref.com.

L’outil que nous utilisons pour ce suivi est Serpstat, un concurrent de Semrush.

Dans la stratégie SEO de base, la priorité est portée sur le suivi des risques en termes de netlinking (risques de pénalité dues à des backlinks de mauvaises qualité, ou en trop grands nombres).

Pour effectuer une mission de gestion et de création de backlinks, on peut passer par une plateforme dédiée, telle que Semjuice.

Méthode 9 : suivi de la disponibilité du site

La disponibilité d’un site (appelé souvent « uptime ») permet de rester informé rapidement sur les pannes d’un site, et ainsi d’en informer les équipes techniques.

Les données permettent également de connaître le taux de disponibilité, qui doit être le plus possible proche des 100% afin de ne pas générer de frustration chez les internautes et de s’attirer les foudres de Google.

Nous utilisons les outils betteruptime.com et New Relic pour le suivi de disponibilité et de la performance des sites.

disponibilite uptime
disponibilite uptime

Quatrième partie : l’analyse page à page

Méthode 10 : analyse SEO OnPage

Il est parfois très utile de se concentrer sur l’analyse d’une seule page, stratégique dans notre référencement, et d’en déduire des axes d’améliorations pour cette page unique.

Ces améliorations peuvent être techniques ou sémantiques, mais elles ne concerneront que la page en cours, sauf s’il s’agit d’ajouter des liens (internes ou externes) vers cette page.

Nous utilisons l’outil textfocus.net pour ce type d’analyse, ou le crawl du site, ou tout simplement les 2.

Ce travail d’optimisation d’une page en particulier peut être très utile pour gagner des places rapidement sur un mot clé précis, quand on est déjà classé sur ce mot clé, mais à une position insatisfaisante (page 2 ou plus de Google).

Cette méthode reste cependant limitée, car :

  • Le référencement d’une page dépend aussi de la qualité de l’ensemble du site
  • Il faut également vérifier si la page analysée n’a pas d’autres soucis autres que « onpage », par exemple si elle est en concurrence avec une autre page du site sur le même mot clé
  • Il est impossible de prévoir les effets escomptés dans Google ; on ne fait que suivre les bonnes pratiques, tenter de faire au mieux, et rester patient. Il arrive que la page semble optimisée en tout point, mais qu’elle reste moins bien classée qu’une page concurrente, et les raisons ne sont pas toujours évidentes (domaine plus réputé ? Meilleure adéquation aux algos « EAT » de Google ? Meilleure ergonomie utilisateur ? Page beaucoup plus ancienne ?…)

Méthode 11 : analyse des performances des pages

L’analyse des performances des pages d’un site est une méthode de travail indispensable et complexe dans la stratégie SEO.

Il s’agit là de croiser les informations techniques et factuelles d’un crawl, pour en tirer un maximum de données sur les pages, et les performances organiques de ces pages, via Google Analytics et Google Search Console.

Certains outils de crawl proposent cette fonctionnalité ; mais il est aussi possible de passer par différents exports pour consolider toutes les données dans un tableau Excel. Nous avons parlé de cette méthode de travail complexe, basée sur des exports Data Studio, dans cet article.

Le résultat est très riche d’enseignements et permet notamment :

  • De lister les pages inactives
  • De repérer les pages qui se font concurrence en interne
  • De repérer les balises en double, les pages en double, ou les balises title et meta description trop courtes ou trop longues
  • De mettre en place des colonnes personnalisées pour mettre en place une méthode de travail et une liste d’action page à page.

Méthode 12 : validation des balises hreflang

Sur un site international, proposant des contenus en plusieurs langues, il est important de mettre en place les balises hreflang correctement.

Voici l’explication de Google à propos de cette balise : https://support.google.com/webmasters/answer/189077?hl=fr

Les balises hreflang ne sont pas simples à mettre en place, mais il existe des outils de vérification, tel que cet outil de Sistrix, ou Hreflang Testing Tool.

Méthode 13 : validation des données structurées

Les données structurées permettent aux robots de mieux appréhender le contenu de vos pages et de mieux valoriser votre page dans les résultats de recherche.

Comme Google, nous recommandons vivement de recourir au JSON-LD comme technique pour intégrer les données structurées. Il est possible de le faire autrement qu’en JSON-LD, mais c’est à terme un risque de régressions régulières, notamment lorsqu’on intègre les données structurées dans le « body » en cohabitation avec le html qui sert au rendu.

dans le « body » de la page, en cohabitation avec le html qui sert au rendu.

Google propose un outil gratuit de validation des données structurées, indispensable pour vérifier que les balises sont correctes sur le plan technique : https://search.google.com/test/rich-results/

Il est possible de vérifier les données structurées de plusieurs pages en même temps en utilisant l’outil de crawl Screaming Frog.

Méthode 14 : vérification du maillage interne

Comme évoqué au sujet de l’analyse SEO “on page”, on peut également s’intéresser à la popularité interne d’une page données, ou d’un groupe de pages, une section de site.

Les éléments à prendre en compte dans le maillage interne sont le nombre de liens vers la page, et les ancres de liens utilisées (l’ensemble du contenu qui se situe à l’intérieur de la balise <a>).

Ces ancres de lien doivent être descriptives et variées, si possible.

L’analyse du maillage interne vers une page ou une section du site se fait avec l’aide des outils de crawl, bien que Google Search Console donne également quelques informations sur ces sujets, mais de manière moins exploitables.

 

 

2 thoughts on “Stratégie SEO : les 14 méthodes de travail que nous utilisons le plus en 2024”

  1. Serge-Jérôme dit :
    26 octobre 2023 à 16 h 40 min

    Merci d’avoir partagé vos stratégies SEO et de m’avoir inspiré de bonnes pratiques.
    Moi-même, j’aime beaucoup l’outil TextFocus, made in France.
    Bravo pour votre expertise.

    Répondre
    1. Christophe Hilmoine dit :
      27 octobre 2023 à 6 h 42 min

      Merci pour votre commentaire, et je connais bien Textfocus pour en être l’éditeur 😉 Eh oui, plusieurs cordes à mon arc !

      Répondre

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Audit Sémantique
  • Audit SEO
  • Optimisation des balises SEO
  • Refonte SEO
  • Accompagnement SEO

Vous avez un projet web ?

Vous voulez créer ou maintenir un site web ?
Vous avez besoin d'améliorer la présence de votre site sur Google ?
Contactez-nous !

On nous demande parfois : Beweb, c'est qui, c'est quoi ? Une agence SEO, un consultant SEO, ou une agence web ? C'est un peu tout cela à la fois ! A la base, Beweb est la société de Christophe Hilmoine, mais il s'est entouré d'experts consultants fiables afin de créer un réseau de compétences complémentaires. Cela nous permet de jouer le rôle d'agence tout en gardant une grande souplesse, afin de mieux répondre à vos besoins.

  • Les services d’agence Web
  • Les services d’agence SEO
  • Le SEO à Rennes
  • Mentions légales & RGPD
  • Plan du site
BEWEB
8 allée Chateaubriand
35760 Saint-Grégoire
Contactez-nous
© Copyright 2023 Tous droits réservés. Beweb - Christophe Hilmoine

Nous utilisons des cookies de navigation, afin de nous permettre d’améliorer votre expérience utilisateur. Veuillez faire votre choix en matière de cookies.
Réglez les cookiesJe refuseJ'accepte
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Toujours activé
Les cookies nécessaires sont absolument indispensables au bon fonctionnement du site web. Ces cookies assurent les fonctionnalités de base et les caractéristiques de sécurité du site web, de manière anonyme.
CookieDuréeDescription
cookielawinfo-checbox-analytics11 monthsCe cookie est défini par le plugin de consentement aux cookies GDPR. Le cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Analytics".
cookielawinfo-checbox-functional11 monthsLe cookie est défini par le consentement aux cookies GDPR pour enregistrer le consentement de l'utilisateur pour les cookies de la catégorie "Fonctionnel".
cookielawinfo-checbox-others11 monthsCe cookie est défini par le plugin de consentement aux cookies GDPR. Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Autre".
cookielawinfo-checkbox-advertisement1 yearThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Advertisement".
cookielawinfo-checkbox-necessary11 monthsCe cookie est défini par le plugin de consentement aux cookies du GDPR. Il est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Nécessaire".
cookielawinfo-checkbox-performance11 monthsCe cookie est défini par le plugin de consentement aux cookies GDPR. Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Performance".
viewed_cookie_policy11 monthsCe cookie est défini par le plugin GDPR Cookie Consent et est utilisé pour stocker si l'utilisateur a consenti ou non à l'utilisation de cookies. Il ne stocke pas de données personnelles.
Functional
Les cookies fonctionnels permettent d'exécuter certaines fonctionnalités comme le partage du contenu du site web sur des plateformes de médias sociaux, la collecte de commentaires et d'autres fonctionnalités de tiers.
Performance
Les cookies de performance sont utilisés pour comprendre et analyser les indices de performance clés du site web, ce qui permet d'offrir une meilleure expérience utilisateur aux visiteurs.
Analytics
Les cookies analytiques sont utilisés pour comprendre comment les visiteurs interagissent avec le site web. Ces cookies permettent de fournir des informations sur les mesures du nombre de visiteurs, le taux de rebond, la source de trafic, etc.
CookieDuréeDescription
_ga2 yearsCe cookie est installé par Google Analytics. Ce cookie est utilisé pour calculer les données relatives aux visiteurs, aux sessions et aux campagnes et pour suivre l'utilisation du site pour le rapport d'analyse du site. Les cookies stockent les informations de manière anonyme et attribuent un numéro généré de manière aléatoire pour identifier les visiteurs uniques.
_gid1 dayCe cookie est installé par Google Analytics. Ce cookie est utilisé pour stocker des informations sur la façon dont les visiteurs utilisent un site Web et aide à créer un rapport d'analyse sur l'état du site Web. Les données recueillies comprennent le nombre de visiteurs, la source d'où ils viennent et les pages visitées sous une forme anonyme.
Advertisement
Les cookies publicitaires sont utilisés pour fournir aux visiteurs des annonces et des campagnes de marketing pertinentes. Ces cookies suivent les visiteurs sur les sites web et collectent des informations pour fournir des annonces personnalisées.
CookieDuréeDescription
test_cookie15 minutesThis cookie is set by doubleclick.net. The purpose of the cookie is to determine if the user's browser supports cookies.
Others
Les autres cookies non catégorisés sont ceux qui sont en cours d'analyse et qui n'ont pas encore été classés dans une catégorie.
CookieDuréeDescription
_gat_gtag_UA_493353_141 minuteNo description
vchideactivationmsg3 yearsNo description
vchideactivationmsg_vc113 yearsNo description
Enregistrer & appliquer
Propulsé par CookieYes Logo