Depuis 2010, et le fameux « May Day », Google a multiplié les mises à jour de son algorithme, et les désormais célèbres « Panda » et « Pinguin » font trembler les référenceurs. C'est pourquoi le métier du référencement naturel est en pleine mutation. Le Big Data et les nouveaux outils, aujourd'hui à notre disposition, pourraient bien venir en aide aux responsables d'acquisition d'audience...
Si l'algorithme de Google est le coeur du réacteur, les données en sont le carburant
Google s'efforce toujours de trouver une réponse mathématique aux différents cas de recherche produits sur son moteur. Il s'appuie donc sur des volumes considérables de données. Dans une récente intervention, Larry Page, le CEO de Google, explique que l'enjeu d'un moteur de recherche n'est pas seulement de rechercher le mot-clé tapé par l'utilisateur, mais bien de répondre à la question qu'il est en train de se poser.
Pour cela, Google se « sert beaucoup des usages des utilisateurs (...) nous avons déjà beaucoup de données renvoyées par leur comportement. Mais nous en utilisons encore plus. Pour améliorer la pertinence du moteur on peut toujours en utiliser plus ».
Page fait ici allusion à la fois aux signaux envoyés par les réseaux sociaux, mais également au déploiement, il y a quelques mois, de sa technologie de Knowledge graph et donc à l'implémentation de nouvelles techniques d'analyse sémantique.
Google est l'un des pionniers du Big Data, il est important de comprendre que les données sont dans son ADN. Il est donc temps pour les éditeurs de sites et les référenceurs en particulier de tirer profit des « Data » à leur disposition.
Quelles données sont utiles pour mon SEO ?
Il est important de distinguer les deux grandes familles de paramètres favorables au référencement :
• Les éléments offsite : les facteurs externes à votre site, tels que le nombre de liens, leur qualité, leurs ancres, les mentions sur les réseaux sociaux...
• Les éléments onsite : la structure de vos pages, la qualité de votre contenu, le balisage, le maillage interne...
Pour chacune de ces familles, les webmasters doivent suivre des metrics particuliers.
L'analyse du Link Profile
Pour les paramètres externes, il existe de nombreux outils permettant de qualifier un lien pointant vers votre site, tels que Moz.com MajesticSEO ou Search Metrics. En règle générale, on va chercher à évaluer ses niveaux de popularité et de confiance, grâce au nombre total de liens ainsi qu'au nombre de noms de domaines référents faisant au moins un lien pointant vers la page en question.
Ensuite, il est nécessaire d'analyser la nature sémantique du lien. Pour ce faire, on s'intéressera aux ancres de liens, ainsi qu'aux informations sur la famille thématique à laquelle appartient la page. De récentes évolutions de Majestic SEO permettent de savoir à quelle catégorie thématique appartient une page web en fonction de ces paramètres.
Cette classification est l'une des étapes préalables à toute interprétation de type « Knowledge Graph ». La plupart de ces outils permettent un suivi en finesse des opérations de netlinking, de même que celles de vos concurrents.
Le suivi des optimisations de votre site
Malgré les récents efforts de transparence de la part de Google, on reproche encore souvent à son Webmaster Tool de ne présenter qu'une vue partielle des données concernant son site. Pour pallier à ce problème, plusieurs solutions commencent à apparaître telles que OnCrawl (version beta) ou DeepCrawl. Ces outils vous permettent d'avoir non seulement une vue exhaustive de vos optimisations : Titres de pages, Meta données, Duplication de contenu, Profondeur de pages, Architecture de vos liens internes, poids des pages (...), mais vous offrent aussi la possibilité d'évaluer l'impact d'une modification de votre structure de page, voir de tester la fiabilité de la nouvelle version de votre site.
Le suivi de vos positions
Même si Google tend à personnaliser de plus en plus ses résultats, le suivi de ses principaux mots clés reste un passage obligé pour tout responsable Référencement naturel. Beaucoup de solutions existent telles que Ranks.fr (SaaS), ou Rank Checker (Extension firefox).
Toute la valeur est dans le croisement
Forts de toutes ces données, les référenceurs ont aujourd'hui toutes les armes pour améliorer leur positionnement et se prémunir d'une pénalité. Toutefois, il faudra croiser plusieurs sources de données pour mener à bien son analyse. En effet, il faudra par exemple comparer à la fois les données issues de l'usage de votre site, comme le taux de rebond de vos pages, à l'indice de duplication de contenu interne notamment afin de prévenir toute pénalité liée à Panda par exemple.
Le référencement naturel devrait donc développer une approche plus scientifique et plus industrialisée dans les années qui viennent, faisant la part belle aux statisticiens.