Focus sur quelques points de l’audit technique SEO

Des indicateurs tels que les taux de rebond élevés, le temps passé sur la page, les clics sur vos annonces, et les conversions peuvent être des points de départ pour commencer un audit de performance.

Pour rendre vote site performant, dans une première étape, il faut effectuer un audit de votre site web afin de lister ce qui fait défaut et apporter les améliorations. Il permet d’analyser votre site Web, et de vous fournir des recommandations et un plan d’action sur-mesure, ainsi que les priorités pour l’implémentation de ces recommandations.

 

Crawl et architecture du site Internet

« Crawler » est un terme générique qui désigne tout programme (tel qu’un robot dit spider) utilisé pour découvrir et, analyser automatiquement des sites Web en suivant des liens d’une page Web à une autre. Le robot principal de Google s’appelle Googlebot et celui de Bing se nomme Bingbot. Vous pouvez les voir dans les journaux (fichier de log serveurs) des navigateurs.

Pour optimiser un site, il faut qu’il soit crawlé, c’est-à-dire que les bots doivent explorer les pages du site ; il faut aussi que les pages de ce site soient indexées dans la base de données des moteurs de recherche.

Nous devons donc effectuer un audit de crawl du site qui permettra de connaître les pages crawlées et indexées. C’est le socle de l’audit technique SEO. D’autre part, il permet aussi détecter les erreurs de référencement dit « on-site » telles que les balisages de hiérarchisation (H1,H2…), les « Title » (titre de page dans l’onglet du navigateur) mal optimisés ou même manquants, la typologie des URLs, les codes d’état (code HTTP) qui permettent de déterminer le résultat renvoyé par une requête ou d’indiquer une erreur : par exemple le code 200 (renvoie un succès) et le code 404 (page, ressource non trouvée).

Les boucles de redirections de pages aussi sont détectées : en effet, une boucle de redirections demande beaucoup de ressources au serveur et utilise le crawl budget alloué au site.

Cette analyse permet également de connaître le squelette du site, les liens entre les pages (maillage interne), d’analyser l’expérience utilisateur (notamment pour les sites e-commerce).

L’objectif final est d’améliorer la navigation et la compréhension de votre site web par les robots de moteurs de recherche.

 

Robots.txt

Le rôle du fichier robots.txt est de signaler aux bots (robots d’exploration des moteurs de recherche) les pages ou les fichiers (multimédias, ressources, etc.) qu’ils peuvent ou ne peuvent pas demander à votre site.

Son objectif principal est d’éviter de surcharger votre site de demandes : diriger les bots vers les pages importantes et en évitant de présenter celles qui ne sont pas intéressantes pour les internautes.

Il ne sert pas à empêcher qu’une page Web figure dans les résultats de recherche Google ; pour cela, il faut utiliser des balises ou des directives spécifiques.

Notez par exemple qu’une page bloquée par un robot peut quand même être indexée et affichée dans les résultats de moteurs de recherche.

Le fichier robots.txt peut donc aider à augmenter la vitesse de crawl, et l’indexation de sites web.

 

Performance Web

Le chargement des pages sur ordinateur et mobile est une dimension non-négligeable. En effet, un site lent perd de potentiels internautes, et des futurs clients.

Le taux de conversion est impacté négativement. Le lead va chez le concurrent dont le site se charge vite : c’est l’expérience utilisateur qui est donc meilleure.

 

Historique du site

Cette dimension est importante : le but est de connaître les pénalités éventuelles que votre site a subies (Panda, Penguin, etc.).

Google Panda : c’est un algorithme de Google qui sanctionne les sites ayant des contenus de faible qualité, ou des contenus dupliqués. Ces sites pénalisés sont alors rétrogradés dans les résultats de moteurs de recherche.

Google Penguin : c’est également un algorithme de Google qui sanctionne les sites qui utilisent des liens factices, qui pratiquant aussi du cloaking…

Il existe de nombreux algorithmes de Google : Colibri (compréhension des requêtes dans son ensemble), Rankbrain (intelligence artificielle capable de comprendre le sens des expressions de recherches similaires), Pigeon (pour les résultats de recherche au niveau local).

 

Sitemaps

Le Sitemap est un fichier dans lequel des informations sur les pages, les images, les vidéos sont indiquées, ainsi que les relations entre les fichiers.

Les fichiers Sitemap permettent une meilleure exploration de votre site par les moteurs de recherches. Ils aident les bots (robots) à naviguer plus rapidement sur votre site.

Ces types de fichiers doivent être bien paramétrés afin d’être efficaces.

 

HTTPS

Le protocole HTTPS (Hypertext Transfer Protocol Secure) est un protocole de communication Internet qui protège l’intégrité et la confidentialité des données lors du transfert d’information entre l’ordinateur de l’internaute et le site.

Il faut adopter le protocole HTTPS afin de permettre aux internautes de consulter votre site Web en toute sécurité, quel que soit son contenu. Google pénalise les sites qui n’utilisent pas le protocole HTTPS : il affiche un message indiquant que le site est dangereux. Cela peut donc dissuader les futurs clients d’entrer dans votre site Web.

Et si votre site utilise encore le protocole HTTP, il faut migrer vers le HTTPS. Cette migration est un déplacement de site avec changement d’URL : http://www.exemple.com à https://www.exemple.com sont deux URLs différentes.

La problématique centrale concerne donc : les contenus, les pages non sécurisées, les mauvaises redirections (des pages HTTPS dirigées vers des pages HTTP), la génération des Sitemaps adaptés, le certificat SSL expiré, etc.

Nous vous accompagnons dans cette étape de passage de l’HTTP à l’HTTPS.

 

Sites multilingues

Les entreprises ayant des marchés à l’international ont des sites multilingues. Il faut une optimisation spécifique par l’utilisation d’attributs de langues (HREFLANG) sur ces sites en tenant compte de l’audience, de la langue, et des localisations (régions) ; et une bonne gestion des noms de domaines.

Cela induit qu’il faille notifier aux moteurs de recherche les résultats à afficher et, pour quels internautes ; et vérifier la duplication de contenus.

Nous proposons un service dédié à l’optimisation des pages multilingues.