Objectifs de notre analyse de logs serveur pour le référencement naturel

Une analyse de logs proprement dite consistera donc à :

  • Identifier les URLs (pages) analysées
  • Connaitre les pages visitées (crawlées) et de les comparer avec elles qui existent sur le site
  • Connaitre les pages à forte valeur ajoutée pour Google et celles qui ne le sont pas
  • Connaitre les pages profondes
  • Trouver les liens cassés
  • Découvrir la fréquence d’analyse
  • Auditer les redirections
  • Améliorer le budget d’exploration
  • Identifier les pages lentes
  • Rechercher des pages non explorées et orphelines (Pages qui existent mais, qui ne sont liées à aucune page : souvent les pages 404)
  • Répertorier les facteurs qui empêchent l’indexation et la visibilité de votre site
  • Prioriser les actions de corrections qui favoriseront le crawl et l’indexation des pages.
  • Combiner et comparer toutes les données
  • …..etc.

Cette liste est non exhaustive.

Le croisement des données de l’analyse de logs, du crawl et celles de Google Search console et Analytics, permettra de fournir des recommandations efficaces, de les prioriser en établissant un plan d’action.

Analyse de logs – Google Search Console – Google Analytics

La Google Search Console, vous permet d’avoir les rapports des erreurs d’analyse et ceux des statistiques d’exploration des sites web, ainsi qu’un rapport d’état d’analyse pour les applications mobiles.

Mais ces rapports utilisés ne sont pas complets pour une connaissance approfondie des erreurs détectés sur votre site. Par exemple, pour les rapports des erreurs d’analyses de sites web, Google présente les principaux problèmes qui ont empêché Googlebot d’accéder à l’intégralité d’un site au cours des 90 derniers jours. Alors qu’avec une analyse de logs, il n’y a pas de limites. D’autre part, il n’a pas peut-être pas exploré toutes les pages de votre site, à cause de la limitation du budget d’analyse (budget crawl). Et c’est donc l’analyse de logs qui permettra d’apporter des réponses à cette question.

Il est donc nécessaire de comparer les rapports d’analyse des logs serveurs avec ceux de la Search console, et ceux d’Analytics. En effet, les outils Google Search Console et Analytics restent limités pour une étude plus approfondie. En fonction du volume de votre site, vous n’aurez pas toutes les informations dans Google Search Console et Analytics. Avec les fichiers logs on accède à toutes les traces.

Les pages non visitées sont un indice pour définir les types d’erreurs générées par ces pages. En effet, si le site est lent, si les pages comportent des erreurs Google limitera le budget crawl.

Par exemple sur un site e-commerce, on notera les erreurs sur les navigations à facettes, les URLs dupliquées, les erreurs de code HTTP telles que les 404, le contenu dupliqué dans plusieurs pages. Ces erreurs sont des facteurs qui réduisent le budget de crawl et empêchent donc le crawl et l’indexation efficients des pages. Un site qui n’est pas vu (crawlé) ne peut être indexé. Parfois, il peut s’agir de la non-demande d’indexation (« no-index »).

L’analyse des logs permettra de prioriser les actions à mettre en place en fonction des objectifs définis.