Il y a déjà un bon moment, certains amis dans le domaine du SEO m’avaient suggéré d’écrire un article sur le sujet de la place de l’environnement dans le référencement.
A priori, on ne voit aucun rapport, si ce n’est que tout un chacun est prêt à faire son petit “green washing” en insérant une page RSE en pied de page. Ou alors, s’il y a un rapport, il est négatif : le consultant SEO proposant d’apporter de la croissance, cela nuirait à l’impact carbone. Car faut-il rappeler que croissance ne rime pas avec écologie, s’il ne s’agit pas de la croissance des arbres mais celle de l’entreprise et de son capital, qui exige et implique de la consommation souvent inutile.
Si j’ai abordé ce sujet, c’est parce qu’il me tient beaucoup à coeur, et ceux qui m’ont taquiné sur le sujet en m’invitant à m’expliquer le savent très bien.
Je vais donc essayer de vous expliquer mon point de vue sur le sujet.
Premier impact sur l’environnement : le nettoyage de site, action clé du référenceur
L’une des tâches du consultant SEO est, lors de l’audit SEO, de lister les pages inutiles au référencement.
La plupart des sites internet (enfin, des concepteurs de sites) font cette erreur qui consiste à ne pas se poser la question : une page visible sur mon site doit-elle être référencée, indexée par les moteurs de recherche ?
En effet, certaines pages statiques n’ont pas vocation à devenir des pages d’entrées en référencement. Il s’agit notamment des pages statiques telles que les mentions légales, les pages RSE (justement), parfois les pages contact, qui-sommes nous, etc. Mais c’est également le cas des “landing pages” dédiées uniquement à être visibles via du référencement payant.
Une technique SEO assez efficace, depuis quelques années, popularisée entre autres par Olivier Duffez de Webrankinfo, est la chasse aux pages inactives, aussi appelées pages mortes ou “pages zombies”. Il s’agit des pages qui ne font pas de trafic naturel, qui ne font pas partie des pages d’entrée pour le référencement naturel. C’est souvent le cas d’articles très anciens, obsolètes et peu maillées sur un site.
L’outil Oncrawl permet par ailleurs de détecter ces pages mortes, en croisant les pages crawlées avec les données de Google Analytics :
Devant ce type de pages, vous avez principalement 3 solutions :
- tout bonnement désindexer ces pages pour les sortir de l’index des moteurs de recherche
- les fusionner avec d’autres pages
- les enrichir et les “réveiller”.
Dans les 2 premiers cas, il s’agit bien de nettoyage.
Un autre type de pages peuvent nuire à votre référencement : ce sont les pages de votre site que Google (ou autre) référence, ce qu’on appelle les pages fantômes, ou pages orphelines. Ces pages sont tout bonnement absentes de votre structure, mais présentes dans l’index de Google. Plus complexes à découvrir que les pages inactives, elles peuvent venir d’une ancienne version du site, ou d’un problème technique du CMS, d’une “fuite de crawl” (une pagination mal gérée, ou un appel AJAX non protégé par exemple).
Et j’en arrive avec l’impact indirect de cette action : en donnant moins de pages “à manger” aux moteurs, on allège l’impact numérique du site puisque les moteurs n’ont plus à stocker des données inutiles.
C’est là l’un des métiers les plus techniques de l’expert SEO, et franchement, alléger un site de ses “poids morts”, ça fait du bien à tout le monde.
Second impact sur l’environnement : le poids des pages et des sites
Une fois que l’on a réalisé cette cure d’amaigrissement du site (ou avant, c’est selon), un autre travail d’optimisation attend l’expert technique : diminuer le poids des pages.
Selon HTTPArchive, en décembre 2019, le poids moyen d’une page web était de 1,98Mo. Le poids moyen des pages internet ne cesse d’augmenter, comme le montre ce graphe d’évolution :
C’est un peu comme si on conduisait des voitures de plus en plus grosses pour faire la même chose qu’avant, et franchement, c’est pas plus efficace…
Mais pourquoi les pages internet sont-elles de plus en plus grosses, lourdes ? Alors qu’on n’arrête pas de dire que les pages doivent être plus rapides qu’avant, les gens n’ayant plus une once de patience, surtout quand ils surfent depuis un téléphone ?
D’une part, les pages web affichent beaucoup plus de medias qu’avant : vidéos, images, infographies, etc.
D’autre part, les frameworks et les CMS embarquent de plus en plus un nombre incalculable de librairies, de fichiers CSS, JavaScript, etc. qu’on ne prend pas la peine de comprendre, souvent, et qu’on embarque quand même. Surtout quand on n’a pas le choix, comme dans la majorité des templates WordPress, qui vous propose des librairies de sliders, de formulaires ou de e-commerce même si vous n’en installez pas.
Cela a été permis par la hausse des débits, par ailleurs. On charge plus rapidement plus de données. Alors on s’en donne à cœur joie… C’est un peu comme si on regardait une vidéo Youtube pour seulement écouter de la musique. Absurde.
Bref, en tant que consultant en référencement, je pointe du doigt dans mes audits SEO le poids des pages, souvent trop élevé. Il n’est pas rare de voir une page d’accueil affichant 6 petites images, présentant les services de la société, mais qui en fait sont des images énormes redimensionnées. La majorité des sites que j’analyse n’a jamais pris la peine d’optimiser les images, alors qu’il existe un grand nombre d’outils permettant de le faire : mon préféré est ShortPixel, qui me permet d’optimiser les images via une API.
Bien sûr, il n’y a pas que les images à optimiser : il y a aussi toutes les autres ressources statiques, telles que les CSS, les PDF, etc. Ce point pourrait faire l’objet d’un article à lui seul, tellement il peut être complexe dans certains cas. Je termine ce chapitre avec un petit teaser (article à venir un jour) : l’utilisation de l’option d’analyse du Coverage, dans la console de développement de Chrome, permet de faire la chasse au code CSS inutile. Cette méthode permet de découvrir que certains des gros fichiers CSS ne sont utilisés qu’à moins de 1% !
Référencement local et travail à distance
Un impact plus indirect cette fois, mais qui ne me semble pas anecdotique : la manière de travailler des référenceurs.
D’une part, parce que de nombreux référenceurs travaillent le référencement local en cherchant avant tout à rapprocher les commerces et les entreprises de leurs clientèles locales. A titre d’exemple, la moitié au moins de mes clients sont en région rennaise, et je peux me rendre aux réunions à vélo. Je peux trouver un client à Lille ou à Bordeaux, bien entendu, mais la manière de présenter mon offre et mes coordonnées sur Google My Business me donnent beaucoup plus de visibilité près de Rennes.
Et quand bien même j’ai des clients situés à Paris ou en Allemagne, il m’est très facile de faire mes réunions par visio-conférence et de réaliser les audits SEO ou sémantiques à distance : il est bien rare qu’un consultant en référencement ait besoin d’être dans les locaux. J’écris la fin ce cet article pendant la triste période du confinement pour lutter contre le coronavirus, et le télé-travail est salvateur plus que jamais, en plus d’être plus écologique.
Le bonus écolo : le choix des clients
Pour terminer, et parce que j’ai bien conscience que mon travail ne sera jamais réellement “neutre” sur le plan carbone, que le numérique est un secteur encore très polluant, trop, et de plus en plus, j’ai aussi fait le choix de privilégier les clients qui partagent ma vision du combat à mener.
Comment ? En proposant des tarifs réduits auprès des entreprises et des start-ups qui travaillent dans l’écologie, de manière plus ou moins directe.
Ainsi, en 2019, j’ai eu la chance d’accompagner deux sociétés pour améliorer leur référencement ou conseiller leur stratégie :
- La Fourche, magasin bio en ligne ;
- Rebelote, portail de produits de seconde main.
J’ai bien conscience que ce choix n’est pas aisé, et que je n’aurai pas toujours la chance d’accompagner des entreprises de ce type.