Evaluer le SEO technique de son site web

Sur les trois, le référencement technique est le plus souvent ignoré, probablement par le faite que les entreprises veulent le plus rapidement se positionner.

Cependant, avec la concurrence dans les résultats de recherche actuelle, on ne peut pas ignorer les défis du référencement technique. Avoir un site qui est facile à parcourir, rapide et sécurisé n’a jamais été aussi essentiel pour garantir que votre site soit performant et bien classé dans les moteurs de recherche.

Parce que l’optimisation technique des moteurs de recherche est un sujet tellement vaste, cet article ne couvrira pas tout ce qui est nécessaire pour un audit technique complet.

Toutefois, il abordera six aspects fondamentaux de l’optimisation technique des moteurs de recherche que vous devriez examiner pour améliorer les performances de votre site web et le maintenir efficace et sain. Une fois que vous aurez couvert ces six bases, vous pourrez passer à des stratégies techniques de référencement plus avancées.

Définition du SEO technique

Qu’est-ce que le référencement technique ?

Le référencement technique implique des optimisations qui rendent votre site plus efficace pour l’exploration et l’indexation afin de maximiser votre budget crawl. L’architecture du site, la structure des URL, la façon dont votre site est construit et codé, les redirections, votre plan du site, votre fichier Robots.txt, la livraison des images, les erreurs du site et de nombreux autres facteurs peuvent affecter la santé de votre référencement technique.

Aujourd’hui, nous allons passer en revue les six premières choses à vérifier pour un audit technique rapide de référencement.

Assurez-vous que votre site est explorable par les moteurs de recherche

Il ne sert à rien d’écrire des pages de grand contenu si les moteurs de recherche ne peuvent pas les explorer et les indexer. Par conséquent, vous devriez commencer par vérifier votre fichier robots.txt.

Ce fichier est le premier point d’appel pour tout logiciel de navigation web lorsqu’il arrive sur votre site. Votre fichier robots.txt indique les parties de votre site web qui doivent être explorées et celles qui ne doivent pas l’être. Il le fait en “autorisant” ou “interdisant” le comportement de certains agents utilisateurs. Le fichier robots.txt est accessible au public et peut être trouvé en ajoutant /robots.txt à la fin de tout domaine racine.

En indiquant où ne pas autoriser ces agents utilisateurs, vous économisez de la bande passante, des ressources serveur et votre budget d’exploration ou budget crawl.

Les pages parcourues par jour, les kilo-octets téléchargés par jour et le temps passé à télécharger une page (en millisecondes) résument tous le taux d’exploration de votre site web et sa relation avec les robots des moteurs de recherche.

Vous souhaitez que votre site web ait presque toujours un taux d’exploration élevé ; cela signifie que votre site web est régulièrement visité par les robots des moteurs de recherche et indique un site web rapide et facile à explorer. La cohérence est le résultat souhaité de ces graphiques – toute fluctuation importante peut indiquer un HTML cassé, un contenu obsolète ou un fichier robots.txt trop bloquant sur votre site web.

Si votre temps passé à télécharger une page indique des temps de chargement trop élevés, cela signifie que Googlebot passe trop de temps à parcourir les pages du site.

Vous pouvez voir les erreurs de crawl dans le rapport de couverture dans Google Search Console.

En cliquant dessus, on peut mettre en évidence des pages spécifiques avec des problèmes de crawl. Vous devez vous assurer que ces pages ne sont pas importantes pour votre site web et résoudre le problème qui en est la cause le plus rapidement possible.

Si vous constatez des erreurs d’exploration ou des fluctuations importantes dans les statistiques d’exploration ou les rapports de couverture, vous pouvez approfondir la question en effectuant une analyse du fichier logs.

L’accès aux données brutes des journaux de votre serveur peut être un peu pénible, et l’analyse est très avancée, mais elle peut vous aider à comprendre exactement quelles pages peuvent et ne peuvent pas être explorées, quelles pages sont prioritaires, les zones de gaspillage du budget crawl et les réponses du serveur rencontrées par les robots pendant leur exploration de votre site web.

Vérifiez que votre site est indexable

Maintenant que nous avons analysé si Googlebot peut réellement explorer notre site web, nous devons comprendre si les pages de notre site sont indexées. Il existe de nombreuses façons de le faire. En nous replongeant dans le rapport de couverture de la Google Search Console, nous pouvons examiner l’état de chaque page du site.

Nous pouvons le voir dans ce rapport :

  • Erreur : Erreurs de redirection, 404s.
  • Valides avec des avertissements : Pages qui sont indexées mais avec des avertissements
  • Valides : Les pages qui sont indexées avec succès.
  • Exclues : Les pages qui sont exclues de l’indexation et les raisons de cette exclusion, comme les pages avec des redirections ou bloquées par le fichier robots.txt

Vous pouvez également analyser des URL spécifiques à l’aide de l’outil d’inspection des URL. Vous souhaitez peut-être vérifier qu’une nouvelle page que vous avez ajoutée est bien indexée ou dépanner une URL en cas de baisse de trafic vers l’une de vos pages principales.

Une autre bonne façon de vérifier l’indexabilité de votre site web est de lancer un crawl. L’un des logiciels de crawling les plus puissants et les plus polyvalents est Screaming Frog. Selon la taille de votre site web, vous pouvez utiliser la version gratuite qui a une limite d’exploration de 500 URL et des capacités plus limitées ou opter pour la version payante sans limite d’exploration, avec plus de fonctionnalités et des API disponibles.

Une fois le crawl lancé, vous pouvez voir deux colonnes concernant l’indexation.

Indexabilité : Cette colonne indique si l’URL est “Indexable” ou “Non-Indexable”.

État de l’indexabilité : Ceci indiquera la raison pour laquelle une URL est non-indexable. Par exemple, si elle est redirigée vers une autre URL ou si elle a une balise “non indexable”.

Cet outil est un excellent moyen d’auditer en masse votre site pour comprendre quelles pages sont indexées et apparaîtront donc dans les résultats de recherche et quelles sont celles qui sont non indexées. Triez les colonnes et recherchez les anomalies ; l’utilisation de l’API Google Analytics est un bon moyen d’identifier les pages importantes dont vous pouvez vérifier l’indexabilité.

Consultez votre sitemap

L’importance d’un plan de site complet et structuré ne doit pas être sous-estimée lorsqu’il s’agit de référencement. Votre sitemap XML est une carte de votre site web qui vous permet d’accéder à Google et à d’autres moteurs de recherche. Il aide essentiellement ces crawlers à trouver et à classer les pages de votre site web.

Il y a quelques éléments importants à prendre en compte pour obtenir un plan de site efficace :

  • Votre plan de site doit être correctement formaté dans un document XML.
  • Il doit suivre le protocole XML du plan de site.
  • N’inclure que les versions canoniques des URL.
  • Ne pas inclure d’URL “sans index”.
  • Incluez toutes les nouvelles pages lorsque vous les mettez à jour ou les créez.
  • Si vous utilisez le plugin Yoast SEO, il peut créer un sitemap XML pour vous. Si vous utilisez Screaming Frog, l’analyse de leur sitemap est très détaillée. Vous pouvez voir les URLs dans votre plan de site, les URLs manquantes et les URLs orphelines.

Assurez-vous que votre plan du site comprend vos pages les plus importantes, qu’il ne contient pas de pages que vous ne voulez pas que Google indexe et qu’il est structuré correctement. Une fois que vous avez fait tout cela, vous devez soumettre à nouveau votre sitemap à votre console de recherche Google.

Assurez-vous que votre site web est “mobile-friendly”

En 2019, Google a annoncé le lancement de l’indexation mobile-first. Cela signifie qu’au lieu d’utiliser les versions de bureau de la page pour le classement et l’indexation, ils utiliseront la version mobile de votre page. Cela permet de suivre la façon dont les utilisateurs s’engagent dans le contenu en ligne. 52 % du trafic internet mondial provient aujourd’hui des appareils mobiles, il est donc plus important que jamais de veiller à ce que votre site web soit adapté aux mobiles.

Le test Google Mobile-Friendly Test est un outil gratuit qui vous permet de vérifier si votre page est adaptée aux mobiles et si elle est facile à utiliser. Saisissez votre domaine, et il vous montrera comment la page est rendue pour les mobiles et indiquera si elle est adaptée aux mobiles.

Il est également important de vérifier manuellement votre site web. Utilisez votre propre téléphone et naviguez sur votre site, en repérant les erreurs éventuelles sur votre site. Vérifiez que tous les formulaires de contact, les numéros de téléphone et les principales pages de service fonctionnent correctement. Si vous êtes sur votre bureau, faites un clic droit et inspectez la page.

Si vous n’avez pas construit votre site web pour être compatible avec les téléphones portables, vous devez alors régler ce problème immédiatement. Beaucoup de vos concurrents l’auront déjà envisagé et plus vous le laisserez longtemps, plus vous serez loin derrière. Ne manquez pas le trafic et les conversions potentielles en le laissant plus longtemps.

Faites un audit pour vérifier la vitesse de chargement de vos pages

La vitesse des pages est un facteur déterminant pour l’expérience utilisateur. Avoir un site rapide, réactif et convivial est important pour fournir une expérience agréable à vos visiteurs.

Vous pouvez évaluer la vitesse de votre site avec toute une série d’outils. Je vais en présenter quelques-uns ici et vous donner quelques recommandations.

Google PageSpeed Insights

Google PageSpeed Insights est un autre outil puissant et gratuit de Google. Il vous donne une note de “rapide”, “moyen” ou “lent” sur votre mobile et sur votre bureau, et il comprend des recommandations pour améliorer la vitesse de votre page.

Testez votre page d’accueil et vos pages principales pour voir où votre site Web se situe par rapport à vos attentes et ce que vous pouvez faire pour améliorer la vitesse de votre site.

Il est important de comprendre qu’on de vitesse de chargemet de page, on ne se réfère pas seulement à la vitesse de chargement de la page pour une personne, mais aussi à la facilité et à la rapidité avec lesquelles les moteurs de recherche peuvent la parcourir.

C’est pourquoi il est préférable de réduire et de regrouper vos fichiers CSS et Javascript pour les minifier. Ne vous contentez pas de vérifier l’aspect de la page à l’œil nu, utilisez des outils en ligne pour analyser pleinement la façon dont la page se charge pour les personnes et les moteurs de recherche.

Google dispose d’un autre outil gratuit pour la vitesse des sites, axé sur les mobiles en particulier, ce qui renforce l’importance de la vitesse des sites mobiles pour Google. Test My Site de Google vous fournit une analyse approfondie sur la façon dont votre site web pour mobile.

Google Analytics

Vous pouvez également utiliser Google Analytics pour obtenir des diagnostics détaillés sur la manière d’améliorer la vitesse de votre site. La zone de vitesse du site dans Analytics, qui se trouve dans Comportement > Vitesse du site, regorge de données utiles, notamment sur les performances de certaines pages dans différents navigateurs et pays. Vous pouvez comparer ces données avec les pages que vous avez consultées pour vous assurer que vous donnez la priorité aux pages les plus importantes.

La vitesse de chargement de votre page dépend de nombreux facteurs différents. Mais il existe des solutions courantes que vous pouvez examiner une fois que vous avez fait vos recherches, notamment

  • Optimisation de vos images
  • Corriger le javascript boursouflé
  • Réduire les demandes au serveur
  • Assurer une mise en cache efficace
  • Regardez votre serveur, il doit être rapide
  • Envisager l’utilisation d’un réseau de diffusion de contenu (CDN)

Recherche du contenu dupliqué

Enfin, il est temps d’examiner le contenu dupliqué de votre site web. Comme la plupart des spécialistes du marketing numérique le savent, les contenus dupliqués sont un obstacle majeur au référencement. Bien qu’il n’y ait pas de pénalité pour les contenus dupliqués, Google n’aime pas les copies multiples de la même information.

Elles ne sont pas d’une grande utilité pour l’utilisateur et Google a du mal à comprendre quelle page doit être classée dans les SERP, ce qui signifie en fin de compte qu’elle a plus de chances de servir une des pages de votre concurrent.

Si vous avez du contenu en double qui s’affiche ici, il vaut la peine de lancer un crawl en utilisant Screaming Frog. Vous pouvez ensuite trier par titre de page pour voir s’il y a des pages en double sur votre site. Vous pouvez aussi utiliser des outils en ligne tels que Duplicate Content Checker.

Surveillez la bonne santé technique de votre site

Ce sont vraiment les bases de l’optimisation technique pour des moteurs de recherche.

Ce qui est vraiment fascinant, c’est de voir à quel point on peut approfondir le référencement technique. Ces six étapes constituent un excellent point de départ pour juger de la qualité technique de son site web.

Un petit clic pour évaluer l'article