Réaliser un audit SEO en 7 étapes

Avant tout travail sur un site web, en matière de référencement, un audit SEO doit être effectué. Actuellement, de nombreuses entreprises ne sont pas toujours conscientes qu’il ne faut pas commencer à travailler sur la stratégie de positionnement d’un site internet sans avoir effectué au préalable cette analyse complète.

Comme vous le verrez dans ce guide, il s’agit principalement d’un examen ou d’une vérification approfondie d’un site, axé sur la connaissance de son état de santé actuel sur plusieurs paramètres.

Qu’est-ce qu’un audit SEO ?

Un audit SEO est un processus d’étude complète d’un site web, dans lequel son état général est analysé par rapport à sa capacité à se positionner dans les moteurs de recherche, en recherchant les erreurs qui peuvent nuire à sa visibilité et les éventuels points à améliorer en terme de référencement, de trafic et de conversions.

Quand faut-il réaliser un audit SEO ?

Comme nous l’avons dit plus haut, c’est un aspect essentiel à prendre en compte avant de commencer à travailler avec n’importe quel type de stratégie de référencement.

La raison est claire, si vous ne connaissez pas en profondeur la situation actuelle du site web, vous ne pouvez pas savoir quelles actions vous devez entreprendre pour améliorer son positionnement.

Comment faire un audit SEO en 7 étapes ?

Voyons maintenant les 7 points clés que vous devez étudier lors d’un audit de référencement.

1. Crawling et Indexation

Sans crawling, il n’y a pas d’indexation. Et sans indexation, vous ne pouvez pas être classé. Notre première étape consiste à analyser l’indexation et le crawling du site.

Indexation

En général, un contenu pertinent est un contenu qui apporte de la valeur aux utilisateurs effectuant des recherches sur Google.

Tout contenu qui ne répond pas à l’intention de recherche d’un utilisateur peut être considéré comme « non pertinent », car Google n’est pas intéressé par la présence de contenu de remplissage dans ses résultats.

Pour voir quelles URL sont déjà indexées, outre l’utilisation de différents outils, nous pouvons également utiliser la commande site:votresite.com dans Google lui-même.

Analyse fréquence d’indexation

À ce stade, nous essayons de détecter qu’il n’y a pas de problème ou de blocage qui empêche les robots Google d’atteindre les différentes URL et parties de notre site Web.

Et que se passe-t-il avec la fréquence d’indexation ? En gros, on dit que Google donne à chaque site web un « Crawl Budget », une sorte de budget d’exploration, qui détermine le temps maximum dont dispose le robot pour l’explorer complètement.

L’important ici est d’essayer d’optimiser au maximum ce temps ou budget de crawl, en laissant Google n’explorer que les pages que nous devons positionner et en évitant de perdre du temps sur du contenu sans importance.

Pour analyser à la fois l’indexation et le crawling, vous pouvez utiliser des outils tels que Search Console et Screaming Frog.

Fichier Robots.txt

Vous devez examiner le fichier « robots.txt » pour vérifier que certaines URL ou certains répertoires du site ne sont pas bloqués.

Si nous voulons que Google indexe nos URL, il est important que ce fichier soit bien configuré, sinon le positionnement du site peut être sérieusement affecté.

Vérifie le sitemap.xml envoyé à Google

Un autre aspect que vous voulez vérifier est que vous avez soumis votre sitemap.xml correctement.

N’oubliez pas que ce fichier aide Google à connaître la structure interne de votre site Web, ce qui facilite l’exploration et accélère donc le processus.

Détection des codes erreurs HTTP

Nous allons détecter d’éventuelles erreurs HTTP (Status Code) que nous pouvons avoir sur notre site web, c’est-à-dire les 3xx, 4xx et 5xx.

Les erreurs de ce type peuvent nuire à l’expérience de l’utilisateur et faire perdre du temps au robot d’exploration de Google en lui faisant sauter certaines URL pertinentes.

Par exemple, l’erreur 404 indique que la page que vous souhaitez consulter n’a pas été trouvé.

Il existe une méthode simple pour détecter ces erreurs avec des outils.

La Search Console peut vous y aider, mais si vous avez la possibilité de payer pour un outil premium, nous recommandons personnellement Screaming Frog ou Site Audit de SEMrush, car ils sont assez rapides et vous donnent beaucoup d’informations intéressantes.

Sécurité du site web

Analyser que le site soit bien sécurisé contre d’éventuelles attaques comme les attaques XSS ou encore les attaques par force brute pour accéder à la page de connexion comme un CMS comme WordPress.

Découvrez comment sécuriser un site WordPress pour éviter qu’il soit trop facile à malmener

2. Architecture du site

Une mauvaise architecture de l’information peut avoir une influence négative sur de nombreux facteurs.

Il convient donc d’accorder une attention particulière à cette étape et de contrôler la structure, les regroupements et la profondeur du site, ainsi que le maillage interne.

Structure et architecture du site

L’une des parties essentielles de tout audit de référencement consiste à vérifier la structure interne du site web.

Une bonne architecture commence par la création de silos ou de clusters (regroupement d’informations thématiques) qui visent à améliorer l’expérience utilisateur et la facilité d’exploration du portail.

Profondeur du crawl ou niveaux de clics (Crawl Depth)

La profondeur, également appelée niveau de clics, est le nombre de clics que l’on doit faire pour accéder à un contenu particulier en partant de l’URL d’une page du site.

En supposant que la page d’accueil est le niveau 0, nous commençons à compter les niveaux de profondeur en fonction des clics que nous faisons pour l’atteindre en naviguant dans la structure du site web.

Pourquoi est-il important de connaître ces niveaux de profondeur ? Plus le niveau de profondeur est faible, plus il est facile pour l’utilisateur d’atteindre cette URL.

Ces données peuvent être obtenues grâce à des outils tels que Screaming Frog, SEMrush, Ahrefs et bien d’autres encore.

Crawl Depth

Dans l’idéal, on essaye de faire en sorte que les URL importantes de votre site n’aient pas plus de trois niveaux de profondeur par rapport à l’accueil.

Structure des URL

On va vérifier la syntaxe et la structure des URL et bien s’assurer qu’elles sont courtes, descriptives et faciles à lire.

Liens internes ou maillage interne

Un autre facteur important à analyser, parce qu’il peut affecter le taux de clics, la hiérarchie de l’information, l’architecture et qu’il est lié à l’exploration du Web, est le lien interne.

Fondamentalement, vous devez vous assurer que tous les contenus pertinents de votre site sont stratégiquement liés les uns aux autres, distribuant l’autorité et encourageant la hiérarchie de l’information.

C’est une autre façon de guider le robot Google dans la structure du site Web et d’optimiser le Page Rank interne.

3. Expérience utilisateur et performances du site

Un autre aspect technique à prendre en compte est la rapidité et l’expérience utilisateur, c’est-à-dire que l’utilisateur doit avoir l’impression que les choses sont facilitées pour lui permettre de trouver ce qu’il cherche.

Une amélioration de la fluidité de la navigation permet également d’optimiser l’expérience de l’utilisateur, ce que Google apprécie beaucoup aujourd’hui.

Core Web Vitals

Il s’agit d’une initiative de Google qui vise à promouvoir la vitesse de chargement et une bonne expérience utilisateur sur un site web.

Les Core Web Vitals peuvent être étudiés directement dans Search Console et dans des outils tels que Semrush, par exemple.

WPO

Un facteur technique de plus en plus important est le WPO, c’est-à-dire que votre site web se charge rapidement, car il faut non seulement une navigation intuitive, mais aussi une navigation rapide et fluide.

La vitesse de chargement des pages est importante pour l’expérience globale de l’utilisateur et pour le budget de crawl de Google dans le cas d’un gros site.

De nombreux facteurs influencent la vitesse de chargement, de l’hébergement à une mauvaise optimisation des images. Il y a donc plusieurs aspects techniques que vous devez vérifier.

Adaptabilité mobile

Le Mobile First ! nous vous rappelons que Google donne la priorité au mobile.

Chaque jour, de plus en plus d’utilisateurs vous visitent depuis des appareils mobiles.

Veillez donc à ce que tout fonctionne aussi bien sur un mobile que sur un PC. Si ce n’est pas le cas, vous devrez y travailler rapidement, car cela affecte sérieusement votre positionnement.

Multiplateforme et navigabilité

En général, si vous avez une structure Web claire et facile à comprendre, avec des liens internes corrects et une bonne navigabilité, tant vos utilisateurs que le robot Google trouveront qu’il est facile de se déplacer sur votre site.

Par conséquent, essayez de vérifier que la structure est aussi optimale que possible, avec des liens corrects, des menus bien construits, des fils d’Ariane implémentés, etc.

N’oubliez pas non plus qu’une page peut être consultée à partir de différents systèmes d’exploitation, mobiles ou de bureau, ainsi qu’à partir de plusieurs navigateurs.

Donc, au minimum, testez l’aspect du site sur les ordinateurs Mac et Windows, sur les appareils Android et iPhone et sur les principaux navigateurs tels que : Chrome, Safari ou Firefox.

Utilisabilité du site web

Vous devez vérifier que le fonctionnement de la page n’est pas trop complexe, ou du moins qu’il est suffisamment intuitif pour que l’utilisateur ne s’y perde pas.

Nous vous recommandons donc de vous mettre à la place de l’utilisateur et d’essayer de naviguer dans les sections les plus pertinentes du menu.

Pour analyser la convivialité, nous pouvons utiliser Yandex Metrica, et plus particulièrement son outil gratuit : Session Replay.

4. Qualité du contenu

Nous allons maintenant examiner les différents facteurs que vous devez analyser point par point, afin de vous faciliter la réalisation de cette étude.

Contenu dupliqué

Dans cette section, nous devons vérifier s’il y a du contenu en double dans le site Web. Lorsque nous parlons de doublons, nous faisons référence aux contenus qui sont une copie ou qui sont très similaires à d’autres sous certains aspects.

Le contenu dupliqué peut se produire pour de nombreuses raisons, par exemple, l’utilisation d’un texte similaire à d’autres, le fait d’avoir plus d’une URL pointant vers la même page, des erreurs techniques avec une redirection ou un canonical (donnant lieu à l’indexation à la fois de l’URL d’origine et d’une nouvelle).

Il est possible de le vérifier avec Screaming Frog ou d’autres outils.

Cannibalisation

La cannibalisation du contenu, ainsi que le contenu dupliqué, sont des problèmes auxquels nous ne pensons souvent pas mais que nous pouvons avoir sans même nous en rendre compte.

En ce qui concerne la cannibalisation, il faut savoir qu’au sein d’un même site, cela peut se produire lorsque deux ou plusieurs URL sont utilisés avec la même intention de recherche, ou lorsque la réponse fournie par un contenu existait déjà auparavant sur le même site web.

Contenu de pauvre qualité

C’est le contenu de très faible valeur pour l’utilisateur ou qui n’a pas de visites qu’on appelle aussi « Thin Content ». Il s’agit généralement de ce que nous voulons éviter d’être crawlé et indexé, car cela n’apporte rien à l’utilisateur, diminue la qualité de notre site aux yeux de Google et nous fait perdre du budget de crawl.

Le « Thin Content » n’implique pas qu’il se réfère exclusivement aux URL contenant peu de texte. Il existe des contenus de moins de 300 mots, mais qui ont une grande valeur pour l’utilisateur.

Analysez vos titres de contenu et vos méta-descriptions

Outre le contenu proprement dit, il est également important d’optimiser les attributs méta pour le référencement, c’est-à-dire ce que nous appelons « metatitle », « metadescription » et l’URL de votre article, ainsi que les Rich Snippets.

Souvent, nous ne prêtons pas assez d’attention à ces attributs, et cela peut avoir des conséquences néfastes, surtout lorsque nous nous sommes déjà positionnés, car ce sont les méthodes dont nous disposons pour capter l’attention des utilisateurs dans les SERP.

Structure SEO du contenu

Vérifiez la structure hiérarchique des titres H1, H2, H3, etc., que les pages ont la longueur idéale (en nombre de mots) pour répondre aux différentes intentions de recherche des mots-clés que vous voulez positionner, la densité des mots-clés, etc.

Intention de recherche et optimisation des mots-clés

Lorsque vous analysez l’utilisation des mots-clés dans le texte, vous devez prêter attention aux points suivants :

  • Analysez l’intention de recherche de l’utilisateur pour ce terme.
  • Demandez-vous si ce contenu est approprié pour répondre à chaque intention de recherche.
  • Vérifiez la densité des mots-clés
  • Étudiez le bon usage des synonymes, de la longue traîne et des mots-clés sémantiques.
  • Évaluez l’utilisation des mots-clés dans le texte d’ancrage des liens.
  • Vérifiez le caractère naturel de l’utilisation des mots-clés de manière contextuelle dans le contenu.
  • Examinez l’utilisation de mots-clés apparentés ou de synonymes dans les balises H2, H3 et similaires.

Analyse des images

Les images aident à guider les utilisateurs et fournissent un support visuel et esthétique, mais il ne s’agit pas seulement de les insérer, elles doivent aussi être optimisées.

Lorsque vous effectuez un audit de référencement, vous devez également vérifier que les images que vous utilisez sur votre site Web sont correctement téléchargées, grâce aux attributs « alt » et « title ».

De plus, pour améliorer votre WPO, veillez à diminuer le poids de ces images, afin que vos pages ne soient pas trop lourdes et prennent le moins de temps possible pour se charger complètement.

5. Visibilité dans les moteurs de recherche organiques

Nous allons étudier la visibilité organique dont nous disposons déjà, afin de découvrir les éventuels points à améliorer et les nouvelles possibilités de positionnement des mots dans Google.

Pénalités Google

Nous recherchons les avertissements de pénalités manuelles dans Search Console ou les chutes brutales de trafic qui démontrent une possible pénalité par Google.

S’il y en a, nous étudierons quel algorithme en est à l’origine et quelles sont les meilleures mesures pour lever la pénalité.

Mots-clés positionnés dans Google

Il est nécessaire d’avoir vos mots-clés principaux et secondaires lorsque vous créez une nouvelle URL.

Ensuite, lors d’un audit SEO, il est nécessaire de vérifier la visibilité que vous avez pour vos mots-clés les plus importants.

Il y a plusieurs paramètres à prendre en compte dans cette analyse, mais nous nous concentrons principalement sur la pertinence commerciale de ces termes, l’intention de recherche à laquelle ils répondent et la concurrence.

D’autre part, dans cette partie de l’audit, la recherche de mots-clés est aussi généralement effectuée pour trouver des opportunités de croissance organique.

Vous pouvez utiliser des outils tels que Ahrefs, SE Ranking ou Keyword Magic Tool de SEMrush, qui sont assez complets et vous aideront sûrement à réaliser cette étude rapidement et efficacement.

Etude de la concurrence

Il faut donc analyser vos principaux concurrents et détecter les mots-clés sur lesquels ils se positionnent. Ils peuvent peut-être nous intéresser.

6. Popularité du site web

À ce stade, il est temps d’analyser tous les différents facteurs liés à l’aspect off-page du site que nous suivons.

Niveau de popularité

À ce stade, nous devons effectuer certaines analyses qui nous fournissent des données sur le niveau de popularité de la marque et du site sur Internet.

Analyse des backlinks ou liens retour

Dans cette étape, il est essentiel de vérifier la santé de vos backlinks, qu’il n’y a pas de liens spammy, c’est-à-dire faire attention aux liens potentiellement toxiques qui peuvent apporter des pénalités et affecter négativement votre positionnement.

N’oubliez pas de vérifier ici si votre profil de liens entrants semble être aussi naturel que possible et s’il présente une pertinence ou une relation correcte avec votre thématique.

Vérifiez également que les textes d’ancrage ne sont pas sur-optimisés et qu’ils sont liés au contexte du contenu.

Le netlinking ou création de liens est généralement un facteur très complexe, mais en même temps très important dans une stratégie de référencement.

7. Trafic et conversion

Nous analysons tout ce qui concerne les visites reçues par le site web et son comportement pendant la session.

Entre autres facteurs, nous voyons ici les sources de trafic, les URL visitées, le temps passé, les pages consultées, le taux de rebond et les points de sortie, entre autres.

Sources de trafic

Dans cette étape, nous devons analyser d’où viennent les visites de nos pages, c’est-à-dire les sources qui nous apportent ce trafic.

Ces données se trouvent dans Google Analytics, sous Acquisition > Tout le trafic > Canaux (direct, recherche organique, social, référence, payant, etc.)

Destination du trafic

À ce stade, il est nécessaire de vérifier quelles URL reçoivent le plus de trafic, c’est-à-dire de voir quelles pages apportent le plus de visites au site web.

Points de fuite

Il s’agit des dernières pages visitées par les utilisateurs ou des points où ils ont abandonné un panier d’achat de commerce électronique.

À cette occasion, nous devons analyser d’où partent les utilisateurs et pourquoi ils quittent notre site.

Ici, nous devons clarifier les concepts, le taux de rebond et le taux de sortie ne sont pas la même chose.

Alors que le premier fait référence au pourcentage d’utilisateurs qui n’ont visité qu’une seule URL, le second fait référence à la dernière page visitée au cours d’une session.

Conversion

Il est important de pouvoir analyser le taux de conversion du site web ou du site e-commerce et le rôle que joue le trafic organique dans la réalisation des différents objectifs commerciaux, de voir la qualité des visites que nous recevons et d’évaluer leur impact.

Ces données nous aident à travailler sur l’optimisation du taux de conversion (CRO).

Un petit clic pour évaluer l'article