Qu’est-ce qu’un log serveur ?

Le terme « log » signifie « journal » en français. Un log est un fichier texte classique qui répertorie de manière chronologique tous les événements qui ont affecté un système informatique (hébergement inclus) et toutes les actions découlant de ces événements.

C’est donc un fichier qui garde la trace de toutes les requêtes (demandes) qui ont été faites au serveur :

Traces des user agents (agents utilisateurs) tels que Googlebot ou Bingbot (robots qui visitent votre site)
Traces d’accès des internautes au site via un ordinateur, un mobile ou une tablette.
Il existe de nombreux user agents, les plus connus sont les robots qui visitent les sites web : Googlebot images, Googlebot vidéo, Adsbot (qui va vérifier la qualité des annonces sur les pages web des ordinateurs).

Ce fichier permet d’analyser l’audience d’un site et donne des indications précises sur le trafic de votre site. Couplées aux analyses des audiences Analytics, et aux rapports de la Search Console, ces données permettent d’affiner par exemple des stratégies en référencement naturel, de corriger des erreurs afin d’augmenter le budget de crawl.

L’importance de l’analyse des logs

L’analyse des fichiers journaux permet par exemple de :

  • Voir précisément les pages qui peuvent ou ne pas être explorées : détections des pages les plus crawlées (visitées) par les robots et celles qui ne le sont pas.
  • Connaitre les réponses rencontrées par les moteurs de recherche au cours de leur exploration : il peut s’agir des réponses 404, 200, 301, etc.
  • Caractériser les points clés de l’analyse qui pourraient avoir des incidences sur le site, tels que la hiérarchie ou la structure de lien interne.
  • Distinguer les pages prioritaires pour les moteurs de recherche, et permettre ainsi de connaître les plus importantes, et de lister les pages les plus actives.
  • Repérer les secteurs qui engendrent une perte du budget d’analyse (budget de crawl).
  • Savoir si un site a été piraté
  • Cette analyse de logs, en plus d’approfondir les audits techniques de référencement naturel, permet de découvrir le comportement des robots de recherche.