06 78 95 06 63 contact@beweb.fr
Consultant SEO : Expert référencement de site internet à Rennes
  •  Consultant SEO
  • Services SEO
  • Services Web
  • Blog
  • Contact
Skip to content
Utiliser Google Data Studio pour analyser les performances de vos pages

Utiliser Looker Studio pour analyser les performances de vos pages

Par Christophe HilmoineSEO25 novembre 20207 février 2024 13–17 minutes de lecture
  • Partagez cet article :
  • share on facebook
  • share on twitter
  • share on linkedin

Google Data Studio est devenu ces dernières années un outil incontournable pour la plupart des métiers du SEO, à la fois pour la création de tableaux de bords clients personnalisés mais aussi pour l’analyse des données SEO.

Dans cet article, je vais vous expliquer comment, à l’aide d’un crawler et de Google Data Studio, je parviens à quasiment automatiser l’analyse de la performance SEO des pages.

Pourquoi analyser les performances organiques des pages ?

Pour commencer cet article, il me faut expliquer pourquoi j’ai eu besoin de mettre au point cette méthode.

Et c’est très simple : dans le travail d’accompagnement SEO, j’effectue non seulement des suivis de mots clés et une gestion de projet SEO permettant de donner du travail aux équipes techniques puis de les valider, mais je réalise aussi et surtout des analyses.

Ces analyses SEO sont pour la plupart récurrentes, car ce qui nous intéresse, ce n’est pas que le résultat ponctuel, mais l’évolution du résultat. C’est en cela que c’est un accompagnement SEO dans la durée : on mesure l’évolution du site afin de vérifier que les actions menées ont des résultats.

Mon objectif a été donc de pouvoir lister toutes les pages d’un site donné, en extrayant des données SEO essentielles telles que la balise Title, le titre H1, mais également les statistiques de la Search Console permettant de mesurer la performance de la page : le nombre d’impressions générées par la page, le mot clé ayant amené le plus de visites, le nombre de mots clés de la page, etc. Tant qu’à faire, j’ajoute également les données Google Analytics, notamment les sessions organiques de la page.

Les limites des outils de crawl

Un outil de crawl tel que seolyzer.io, oncrawl.com ou Screaming Frog permet d’extraire la totalité des pages d’un site, et des données techniques de ces pages, mais il faut en général prendre un abonnement supérieur ou ajouter une option payante pour faire un croisement avec les données de Google Analytics ou de Google Search Console.

La solution la moins chère est, je pense, d’avoir une licence Screaming Frog, mais encore faut-il réussir à le configurer pour se brancher sur une clé d’API Search Console. Quant à OnCrawl, l’option Data Ingestion permet d’inclure des données tierces dans le crawl, mais c’est une option payante qui s’ajoute à l’abonnement. Je suis fan d’OnCrawl, mais quand on travaille seul, le tarif des outils SEO cumulés peut faire mal…

La solution que j’ai donc utilisée est de réaliser le croisement des données “à la main”, enfin avec Excel… mais de manière presque automatisée.

Utiliser Google Data Studio pour croiser Google Search Console et Google Analytics

La première chose à faire, une fois bien sûr créé votre premier tableau de bord Data Studio, est de faire un croisement des données de différentes sources de données.

Pour cela, vous devez vous assurer d’avoir ajouter au moins les 2 sources de données suivantes : Google Analytics, et Search Console. Mais le tableau de la Search Console à connecter n’est pas celui par défaut, “Impression associée au site”, mais “Impression associée à l’URL“, tableau qui permet d’obtenir les statistiques des pages.

Quand ces sources sont ajoutées, je peux ajouter un tableau de bord me présentant les informations des pages de Search Console, avec pour dimensions “Landing Page” et “Requêtes”, et pour statistiques “Impressions”, “URL Clicks” et “URL CTR”. Le tout est trié par Landing Page et URL Clicks, ce qui me donne un tableau de ce type :

exemple data studio search console
exemple data studio search console (extrait)

 

Si vous désirez créer un tableau Data Studio regroupant des données de Search Console ET de Google Analytics, il faut passer par une ressource croisée, qui se fait par une jointure entre les deux sources.

Par contre, pour réussir notre jointure entre les 2 sources de données, il va falloir s’appuyer sur l’URL de la page. Or, Google Analytics n’envoie en général que l’URL relative de la page, il faut donc ajouter un champ personnalisé dans la ressource Analytics, avec une fonction telle que :

concat('https://www.votresite.com',Page)

Voici à quoi ressemble ma jointure :

combinaison data studio
combinaison data studio

Et voici un extrait du tableau en résultant :

exemple combinaison data studio search console analytics
exemple combinaison data studio search console analytics

 

Attention, j’ai cherché longtemps comment ajuster la combinaison de données, car les données statistiques envoyées dans une jointure ne sont pas distinctes. Par défaut Data Studio envoie la somme des données. Ce qui nous amène au début à obtenir des impressions et des clicks erronés, car non distincts par page / mot clé : pour pallier à cela, vous devez la nature des statistique retournée pour demander non pas la somme, mais le “max” de la donnée.

De rien 😉

Ma méthode pour compiler les données et analyser toutes les pages d’un site

Il reste maintenant à exporter et compiler les données dans un tableur Excel.

Comme je cherche à analyser un maximum d’informations, je lance tout d’abord un crawl du site. Dans cet exemple, j’ai choisi Seolyzer, car il me permet d’ajouter des données scrappées personnalisées : avec un site WordPress, il est ainsi assez aisé d’extraire automatiquement la date de création de la page, la date de modification, le type de page (page ou post, donc page froide ou page chaude) et la catégorie de la page s’il s’agit d’un article.

Le résultat de ce crawl est un de mes onglets de mon tableur.

J’exporte ensuite la liste des “Landing Page” (comme Search Console les appelle) avec les requêtes, le nombre d’impressions, et de clics associés. Facile, si vous avez fait le tableau Data Studio, il suffit de cliquer sur les 3 points en haut à droite du tableau, appelés “Plus”, pour voir apparaître une option “Télécharger au format CSV”.

Je fais la même chose avec un tableau Data Studio construit à partir de Google Analytics et me donnant la liste des pages et des sessions organiques associées. Bon, si vous avez bien suivi, j’aurais pu faire ces deux exports en une seule fois, en m’appuyant sur la combinaison des 2 sources de données… qui m’aurait fourni à la fois les données Search Console et Analytics !

Pour finir, je construis un onglet Excel récapitulant toutes les données que je veux analyser :

  • url de la page
  • cluster de la page (réalisé par l’outil de crawl)
  • type de page
  • profondeur de la page
  • mot clé constaté : j’ai pour cela inséré une fonction de recherche de l’url dans mon onglet d’export des données Search Console. Ayant trié cet export par page / clics décroissant, la première occurrence rencontrée est le mot clé pour cette page ayant généré le plus de clic sur la période analysée. Pour les curieux, la fonction Excel est la suivante : RECHERCHEV([@url];’Pages et mots clés’!$A$2:$B$3067;2;FAUX)… (2 étant le numéro de la colonne stockant la donnée demandée)
  • impressions : idem, j’insère là une fonction pour récupérer la donnée de l’onglet Search Console. Au fait, me direz-vous, pourquoi ne pas me contenter d’un copier-coller ? Tout simplement pour l’automatisation : si je veux mettre à jour ce fichier tous les mois, il me suffit d’écraser les onglets des exports, sans toucher à l’onglet compilant les infos.
  • clics GSC : idem !
  • Nombre de mots clés : c’est un peu plus délicat là, car il faut trouver la fonction qui compte le nombre de lignes de la Search Console ayant un mot clé pour cette URL. La fonction que j’ai utilisée est : SOMME.SI(‘Pages et mots clés’!$A$2:$A$3067;[@url];’Pages et mots clés’!$G$2:$G$3067) car dans chaque ligne de mon export, j’ai mis le nombre “1” dans ma colonne G. Ainsi la somme pour une url donnée revient à compter le nombre de lignes.
  • et pour finir, j’ai fait une colonne de calcul me donnant un Score SEO de la page. A chacun de faire ce qu’il veut ici, c’est subjectif… enfin presque.
  • J”ai également créé une donnée “capacité SEO” qui me donne un KEI sur 100 dépendant du nombre d’impressions générées par la page. Impressions n’étant pas des sessions (la page a été vue dans google, mais pas forcément cliquée), vous pouvez en déduire une capacité de trafic organique maximal…

Voici un extrait du résultat final, et je vous épargne toutes les autres données du tableau et les colonnes avec les attributs title, description, duplication, etc.

exemple google data studio analyse pages
exemple google data studio analyse pages

 

Vous me direz sans doute : c’est une méthode complexe… fastidieuse… longue… ou c’est une usine à gaz.

Alors oui au final, c’est un peu une usine à gaz. Mais ce travail est d’une grande utilité pour mettre en avant les pages qui fonctionnent, ou les pages au contraire qui n’ont aucune visibilité dans les moteurs de recherche ! Avec cette analyse, et en m’appuyant sur la date de création des pages, je repère très rapidement les pages qui ne “performent pas”, et qu’il faut désindexer.

Je travaille également ainsi avec le client le mot clé cible de la page, et comment faire en sorte qu’il corresponde au mot clé principal de la page.

J’espère que cet article vous inspirera, je suis ouvert à vos questions 🙂

 

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Audit Sémantique
  • Audit SEO
  • Optimisation des balises SEO
  • Refonte SEO
  • Accompagnement SEO

Vous avez un projet web ?

Vous voulez créer ou maintenir un site web ?
Vous avez besoin d'améliorer la présence de votre site sur Google ?
Contactez-nous !

On nous demande parfois : Beweb, c'est qui, c'est quoi ? Une agence SEO, un consultant SEO, ou une agence web ? C'est un peu tout cela à la fois ! A la base, Beweb est la société de Christophe Hilmoine, mais il s'est entouré d'experts consultants fiables afin de créer un réseau de compétences complémentaires. Cela nous permet de jouer le rôle d'agence tout en gardant une grande souplesse, afin de mieux répondre à vos besoins.

  • Les services d’agence Web
  • Les services d’agence SEO
  • Le SEO à Rennes
  • Mentions légales & RGPD
  • Plan du site
BEWEB
8 allée Chateaubriand
35760 Saint-Grégoire
Contactez-nous
© Copyright 2023 Tous droits réservés. Beweb - Christophe Hilmoine

Nous utilisons des cookies de navigation, afin de nous permettre d’améliorer votre expérience utilisateur. Veuillez faire votre choix en matière de cookies.
Réglez les cookiesJe refuseJ'accepte
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Toujours activé
Les cookies nécessaires sont absolument indispensables au bon fonctionnement du site web. Ces cookies assurent les fonctionnalités de base et les caractéristiques de sécurité du site web, de manière anonyme.
CookieDuréeDescription
cookielawinfo-checbox-analytics11 monthsCe cookie est défini par le plugin de consentement aux cookies GDPR. Le cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Analytics".
cookielawinfo-checbox-functional11 monthsLe cookie est défini par le consentement aux cookies GDPR pour enregistrer le consentement de l'utilisateur pour les cookies de la catégorie "Fonctionnel".
cookielawinfo-checbox-others11 monthsCe cookie est défini par le plugin de consentement aux cookies GDPR. Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Autre".
cookielawinfo-checkbox-advertisement1 yearThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Advertisement".
cookielawinfo-checkbox-necessary11 monthsCe cookie est défini par le plugin de consentement aux cookies du GDPR. Il est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Nécessaire".
cookielawinfo-checkbox-performance11 monthsCe cookie est défini par le plugin de consentement aux cookies GDPR. Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Performance".
viewed_cookie_policy11 monthsCe cookie est défini par le plugin GDPR Cookie Consent et est utilisé pour stocker si l'utilisateur a consenti ou non à l'utilisation de cookies. Il ne stocke pas de données personnelles.
Functional
Les cookies fonctionnels permettent d'exécuter certaines fonctionnalités comme le partage du contenu du site web sur des plateformes de médias sociaux, la collecte de commentaires et d'autres fonctionnalités de tiers.
Performance
Les cookies de performance sont utilisés pour comprendre et analyser les indices de performance clés du site web, ce qui permet d'offrir une meilleure expérience utilisateur aux visiteurs.
Analytics
Les cookies analytiques sont utilisés pour comprendre comment les visiteurs interagissent avec le site web. Ces cookies permettent de fournir des informations sur les mesures du nombre de visiteurs, le taux de rebond, la source de trafic, etc.
CookieDuréeDescription
_ga2 yearsCe cookie est installé par Google Analytics. Ce cookie est utilisé pour calculer les données relatives aux visiteurs, aux sessions et aux campagnes et pour suivre l'utilisation du site pour le rapport d'analyse du site. Les cookies stockent les informations de manière anonyme et attribuent un numéro généré de manière aléatoire pour identifier les visiteurs uniques.
_gid1 dayCe cookie est installé par Google Analytics. Ce cookie est utilisé pour stocker des informations sur la façon dont les visiteurs utilisent un site Web et aide à créer un rapport d'analyse sur l'état du site Web. Les données recueillies comprennent le nombre de visiteurs, la source d'où ils viennent et les pages visitées sous une forme anonyme.
Advertisement
Les cookies publicitaires sont utilisés pour fournir aux visiteurs des annonces et des campagnes de marketing pertinentes. Ces cookies suivent les visiteurs sur les sites web et collectent des informations pour fournir des annonces personnalisées.
CookieDuréeDescription
test_cookie15 minutesThis cookie is set by doubleclick.net. The purpose of the cookie is to determine if the user's browser supports cookies.
Others
Les autres cookies non catégorisés sont ceux qui sont en cours d'analyse et qui n'ont pas encore été classés dans une catégorie.
CookieDuréeDescription
_gat_gtag_UA_493353_141 minuteNo description
vchideactivationmsg3 yearsNo description
vchideactivationmsg_vc113 yearsNo description
Enregistrer & appliquer
Propulsé par CookieYes Logo