Que l’on soit un commerçant de niche ou un site de e-commerce généraliste, l’acquisition d’audience est au coeur des stratégies marketing.
Parmi les leviers prioritaires, le SEO reste un élément central dans la recherche de performance des sites marchands. Depuis plusieurs années, la nécessité d’avoir des données fiables et exhaustives a amené les acteurs les plus performants à s’intéresser à l’analyse de logs, afin de comprendre comment Google parcourt et indexe les sites web.
Qu’est-ce que l’analyse de logs ?
Pour chaque device qui se connecte à un site web, il existe une trace de cette connection dans les fichiers de logs des serveurs web. Ainsi, lorsqu’un navigateur web ou mobile, un client mail, ou encore le robot Google se connecte à votre site, il laisse une trace et vous obtenez dans vos logs une ligne de ce type :
On voit dans cet exemple que le robot de Google est passé le 30 septembre 2015 sur la page « /products/ » et que la page a répondu un status 200 OK. Vous pouvez également trouver dans vos logs les temps de chargement de vos pages ainsi que le nombre d’octets téléchargés. Grâce à un analyseur de logs, vous pouvez ainsi suivre à la trace les robots de Google et découvrir quelles sont les pages que Google connaît, les zones de votre site qu’il ne consulte jamais, et même savoir quelles sont les pages sur lesquelles Google envoie des visites issues des résultats naturels.
Dès lors, vous avez toutes les cartes en mains pour identifier les forces et les faiblesses de votre site aux yeux de Google et vous recevez des alertes si jamais votre site présente des paramètres défavorables à votre SEO. L’analyse de logs vous aide ainsi à aller plus loin que les données de Google Analytics ou de la Search Console, afin d’identifier un problème que vous n’auriez pas détecté auparavant. Elle identifie ainsi des pistes d’amélioration.
L’analyse de logs appliquée aux sites e-commerce
L’analyse de logs peut réellement être un avantage compétitif pour les sites e-commerce, pour plusieurs raisons :
- Connaître le taux de crawl global d’un site et par niveaux de profondeur ou groupes de pages. Cette donnée est très intéressante pour les sites e-commerce. Quelles groupes de pages sont les plus crawlés par Google? Sont-ce mes pages produits et mes pages marques ? Il est ainsi important d’optimiser les pages générant des conversions, afin qu’elles soient crawlées le plus souvent possible par Google et ainsi mises en avant pour une requête, en particulier dans les résultats des moteurs de recherche.
- Déterminer quelles sont les pages actives d’un site web, c’est-à-dire les pages générant au moins une visite depuis les résultats des moteurs de recherche, ou celles inactives. De la même façon, il est important de favoriser ces pages aux yeux de Google car ce sont potentiellement des pages générant des conversions.
- Remonter des erreurs de status codes rapidement. L’analyse de logs permet de ne pas attendre de recevoir de messages de la Search Console et d’anticiper de potentielles pages en 404, 500 ou autres redirections, à l’aide d’alertes. Un trop grand nombre de pages en erreurs 404 peut nuire aussi bien à l’expérience utilisateur de vos internautes comme à celle du robot de Google. Elles diminueront le passage du robot et vous perdrez des chances d’indexer rapidement votre contenu et donc de vous positionner sur les résultats des moteurs de recherche.
La comparaison des données de logs et de crawl permet d’aller encore plus loin :
- On peut identifier les pages orphelines d’un site. Ce sont les pages que Google connaît et continue d’indexer alors qu’aucun lien depuis l’architecture du site ne les rend accessibles aux internautes. C’est souvent le cas des pages produits dont le stock est épuisé. Magento, Prestashop et la plupart des outils de gestion de boutique en ligne font souvent disparaître les fiches produits de l’arborescence du moment que le produit n’est plus en stock. Il est dommage de laisser Google perdre son temps sur des pages qui ne peuvent pas convertir.
- Déterminer l’impact de chaque élément de votre site sur le crawl de Google : la longueur de votre contenu favorise-t-il le passage de Google ? La vitesse de vos pages limite-t-elle le crawl ? La profondeur de votre site est-elle un frein à sa bonne indexation ? Tous ces éléments peuvent trouver une réponse avec une analyse comparée et vous permettre d’intégrer les bonnes optimisations pour pousser vos pages les plus importantes. Bâtir son plan d’action SEO devient alors plus simple et plus efficace puisque chaque responsable e-commerce détermine quels sont les facteurs prioritaires à optimiser.
Les principaux facteurs favorables à la bonne indexation et au classement de votre site par Google
Il est possible de favoriser le passage du robot de Google pour améliorer les performances d’un site e-commerce :
- Le contenu : l’ajout de contenu unique et à valeur ajoutée pour l’utilisateur de manière régulière favorise le passage du robot Google. Le contenu étant l’un des trois critères principaux de référencement, les sites riches en contenu frais et régulier seront crawlés plus fréquemment.
- L’hébergement : le choix de l’hébergement a son importance. Si Google visite un site web pendant que celui-ci est hors service, ses robots programmeront leur crawl en conséquence et diminueront leur passage.
- La structure interne et le contenu dupliqué : plus Google passera de temps à déterminer la bonne version à indexer entre deux contenus identiques, moins il consacrera de temps aux pages pertinentes et uniques. Il est nécessaire de vérifier que les titres et méta description de vos pages sont uniques. Le contenu dupliqué affectera négativement le taux de crawl d’un site mais également son positionnement.
- Le temps de chargement : pour maîtriser son budget de crawl et pour éviter que les robots de Google ne dépensent leur budget à crawler des contenus trop lourds, il est nécessaire d’alléger ses pages.
- Le maillage interne : il n’aide pas seulement à distribuer le jus de lien de manière homogène au sein d’un site mais aide également Google à crawler les pages profondes d’un site. Un site e-commerce aura tout intérêt à bien lier ses pages produits pour que celles-ci remontent aux yeux de Google.
- Le robots.txt : il est possible d’interdire le passage du robot de Google sur certaines pages inutiles à l’aide d’un robots.txt. C’est une bonne astuce pour éviter de dépenser du budget de crawl inutilement.
- Le plan de site : un plan de site dynamique permet à Google de crawler plus facilement un site. Soyez également sûr que le serveur retourne les bons codes statut et gère correctement les pages en erreur.
En somme, l’analyse de logs est un excellent partenaire aux sites e-commerce, car elle permet d’aller plus loin que les simples données de crawl ou d'analytics et d’améliorer son référencement naturel.