Depuis de nombreuses années, la société SearchMetrics a pris l’habitude de sortir des études sur les tendances en SEO.
La dernière en date fait 60 pages. Elle détermine et évalue le poids des différents « Ranking Factors » – ou critères de positionnement – sur la position des sites sur le moteur de recherche de Google. Elle est sortie le 13 Décembre 2016 et révèle des points intéressants sur les nouvelles tendances en référencement naturel.
Cet article est un résumé global de l’étude, en version Française. Un autre compte rendu a été fait il y a une semaine par le BlogduModerateur.
Pour ceux qui lisent l’anglais et qui veulent découvrir l’étude en entier, c’est ici que ça se passe (inscription nécessaire, le PDF est envoyé par email)
Je précise tout de même que SearchMetrics est avant tout une société qui veut vendre ses produits. Sans remettre en cause leur objectivité ou leur sérieux, il me semble important de garder cela en tête durant toute la lecture de ce document.
Qu’est ce que SearchMetrics ?

Search Metrics est une société Allemande fondée en 2005 par Marcus Tober. Elle propose une suite d’outils visant à optimiser le référencement naturel de leurs clients.
De la même façon que SEMrush, SearchMetrics dispose de sa propre base de données. Elle contient des centaines de millions d’informations (sites, positions, mots clés, etc) et est mise à jour en permanence.
Ces informations permettent à leurs clients d’avoir un réel suivi sur leur référencement naturel, ainsi qu’un certain recul sur celui de leur secteur ou de leurs concurrents.
SearchMetrics propose également des outils pour aider les webmasters à optimiser leur site, en leur donnant notamment les bonnes pratiques en SEO.
A noter que contrairement à SEMrush, qui est accessible aux budgets modestes (de 70 à 600$ par mois), Search Metrics est avant tout destiné aux plus grosses structures.
Si une offre à 70$ / mois est présente, elle est assez limitée. Pour avoir la suite complète, il faudra débourser autour de 2000$ par mois.
La méthodologie de l’étude

A – Approche globale
L’étude est conduite sur la base de toutes les données recueillies par SearchMetrics depuis le début de l’année. Notamment
- Les positions des sites pour chacune des requêtes étudiées
- Les backlinks de l’ensemble des sites concernés (entrants et sortants)
- Les caractéristiques en terme de contenus / partages / d’optimisation Onsite et autres
En effectuant des recherches sur une dizaine de milliers de requêtes, SearchMetrics étudie chaque caractéristique des sites qui montent / descendent sur Google US et en tire des conclusions.
SearchMetrics indique avoir comparé les résultats des recherches « bureaux » de cette année avec ceux depuis 2015, ainsi qu’avec les recherches mobiles depuis 2016.
A noter que Wikipédia est également inclut dans l’étude, contrairement aux années passées.
B – Les données étudiées dans le détail
Les critères SEO retenus pour l’étude des sites / des pages sont les suivants
Le contenu des pages
- Pertinence du texte
- Nombre de mots
- Présences des mots clés dans le corps du texte
- Présence des mots clés en balise title / meta description et H1
Le comportement des utilisateurs
- Click-Through Rate (CTR)
- Taux de rebond
- Temps sur la page
Les facteurs techniques
- Présence de H1/H2
- Page en HTTPS ou non
- Extension choisie (.com)
- Poids de la page
- Vitesse de la page
- Taille de l’url
L’expérience utilisateur
- Nombre de liens internes
- Nombre de liens externes
- Nombre d’images
- Présence de vidéo dans le contenu
- Taille du texte
- Contenus interactifs
- Présence de listes non ordonnées
- Nombre de bullet points par liste
- Présence de Flash
- Adlinks / AdSense
Les signaux sociaux
- Facebook total (likes + partages)
- Google +1
- Tweets
Backlinks
- Nombre de Backlinks reçu
- Nombre de Backlinks en Dofollow reçu
- Nombre de Backlinks en Nofollow reçu
- Nombre de Backlinks en .edu reçu
- Nombre de domaines envoyant un backlinks vers la page
- Nombre de liens externes envoyés depuis la page
Comme vous pouvez le constater, beaucoup de critères sont étudiés. Il en manque toujours quelques uns mais il y a déjà de quoi avoir des résultats assez solides.
Ce que dit l’étude au global

1 – Les règles SEO changent selon les secteurs / requêtes visées
Contrairement aux années précédentes ou Google était relativement prévisible, l’ajout du Machine Learning dans l’algorithme du moteur rend les choses un peu plus complexes.
L’étude indique en effet que certains critères SEO seront très efficaces dans un secteur, ou une requêtes, et pas du tout dans d’autres.
Cela nécessite pour le webmaster ou le consultant SEO, un travail en amont encore plus approfondi pour définir la meilleure stratégie à adopter.
2 – La position d’une page dépend de la pertinence de son contenu et de la valeur apportée à ses lecteurs
Comme je l’ai indiqué dans l’article sur les bases du SEO, il est essentiel de non seulement produire du contenu de qualité, mais surtout qui plait aux visiteurs.
Ce n’est pas tout de beaucoup / bien écrire, il faut également apporter des réponses aux questions que se posent les lecteurs avant de venir sur la page.
Peu importe que la réponse tienne en deux lignes, 3000 mots, une image, ou une vidéo, l’idée à retenir est de chercher à apporter de la valeur aux visiteurs.
3 – Les facteurs techniques restent essentiels pour bien positionner une page
La lisibilité du site doit être optimale pour les visiteurs, mais également pour le moteur. Il ne faut donc pas négliger des points essentiels comme le maillage interne, la vitesse du site, le poids de la page ou encore une url claire et lisible.
A noter que le HTTPS prend de plus en plus en poids pour les sites e-commerce et va surement devenir essentiel au cours des années à venir.
L’étude indique qu’une parfaite optimisation des facteurs techniques est suffisant pour être autour de la 2ème page, mais que pour aller plus haut, la présence de contenus pertinents est quasiment indispensable.
4 – Le comportement des visiteurs influence votre classement
Ce n’est pas une nouveauté, Google a les moyens techniques de savoir si un utilisateur est content ou non du résultat proposé par son moteur de recherche. Comment ?
Au travers du moteur en lui même, du navigateur Google Chrome, de Google Analytics ou encore d’Android.
Difficile de connaitre exactement la façon dont Google estime si un utilisateur est content ou non de sa recherche, mais nul doute que le seul taux de rebond ou encore le temps de visite sur la page est loin d’être suffisant.
Il s’agit surement d’une combinaison de plusieurs facteurs, comme par exemple un retour en arrière après un temps de visite court sur votre page et un clic sur un autre résultat ensuite.
5 – Le poids des backlinks diminue de plus en plus
L’étude indique que la cause vient du nombre grandissant de recherches sur appareils mobiles. Le partage / like d’articles sur les réseaux sociaux, très facile à faire depuis ces appareils, a remplacé le partage de liens sur un site internet.
Pour ma part je pense que les backlinks étaient un moyen indispensable pour Google de se faire « aider » par les autres webmasters pour évaluer de la pertinence d’une page ou d’un site.
Mais maintenant qu’il est plus intelligent, il peut définir lui même de manière plus précise si une page est pertinente ou non, même si elle n’a que peu de backlinks.
Peu importe la raison, l’étude conclut sur ce point en indiquant que les backlinks ont perdu leur rôle de facteur incontournable, même s’ils gardent tout de même une relative importance.
6 – Il faut savoir s’adapter rapidement
Google est désormais en mesure d’évoluer et s’adapter au fil de l’eau.
Fini les mises à jour implémentées de manière sporadiques – presque brutales – l’algorithme utilise maintenant la puissance du Machine Learning pour faire continuellement évoluer le poids de chaque facteur de positionnement.
Les facteurs de positionnement n’ont désormais plus un poids fixe dans le positionnement des pages, mais varient selon différents critères (secteurs, mots clés, comportement des visiteurs, etc)
Les conclusions, facteur par facteur

Avant de commencer cette partie, j’aimerais juste rappeler l’importance de ne pas mal interpréter tous ces chiffres.
Certaines données peuvent en effet laisser penser qu’un critère sera capital pour être dans le top 10 de Google, alors que l’étude ne fait que retranscrire une autre réalité.
Par exemple, il est dit que 86% des sites dans le top 10 sont en .com
Il ne faut pas prendre cela comme une quasi obligation de devoir acheter un .com pour être entre la 1ère et la 10ème position.
Ce chiffre de 86% est simplement la conséquences de plusieurs facteurs :
- Le .com est le TLD le plus utilisé sur Internet (49.5% selon w3techs.com)
- Les plus gros sites de marques sont en .com
- Les .com sont plus vieux que les autres TLD (avec les avantages associés)
- Et EVENTUELLEMENT un bonus accordé par Google, ce qui est incertain
Et c’est la même chose pour beaucoup de critères étudiés ci dessous. Il faut donc garder un certain recul face à toutes ces données.
J’ajoute également qu’on constate parfois des écarts très importants entre les statistiques des 1ères positions et les suivantes.
La raison est simple, ce sont en général des sites de marques qui n’ont pas forcément besoin d’optimiser leurs pages tant leur autorité et leur légitimité est grande sur certaines requêtes.
1 – Le contenu des pages
C’est désormais le facteur central pour améliorer le positionnement d’une page. Plus qu’auparavant, un contenu doit apporter de la valeur aux visiteurs et être parfaitement compris par Google.
Pour cela il est nécessaire d’utiliser une sémantique cohérente et précise. SearchMetrics recommande d’utiliser un outil pour déterminer les mots à placer dans son contenu afin qu’il reproduise ce que Google connait d’un secteur ou d’un type de contenus.
Les mots clés n’ont plus d’importance, mieux vaut avoir un contenu adapté à ce qu’attend le visiteur après avoir inséré sa recherche dans le moteur de recherche.
Les tendances générales des pages dans le top 10
- Les textes comptent environ 1650 mots (version web), et 1200 en version mobile.
- Ce nombre varie selon le domaine (Finance = 1700, Ecommerce = 2000, Santé = 2400)
- Les termes de recherche apparaissent autour de 7 fois dans le contenu d’une page
- Les termes de recherche apparaissent en title dans environ un cas sur deux (70% en 2015)
- C’est également le cas pour les meta description
- Les termes de recherche sont présents environ 40% du temps dans un H1
Il est intéressant de constater qu’environ 50% des sites placés dans le top 10 en 2016 ne contiennent pas le terme de la recherche dans la balise title ou à d’autres endroits ‘clés’ du site.
Cela démontre que l’importance de ces facteurs diminue d’année en année. En 2015, seuls 30% des sites du top 10 n’avaient pas le terme de recherche en title / h1.
2 – Le comportement des utilisateurs
Google utilise de plus en plus le comportement des utilisateurs pour déterminer si une page est pertinente ou non. Dans mon article de Novembre ou j’indiquais l’importance d’optimiser sa balise title et meta description pour améliorer son CTR, j’évoquais également cette hypothèse, avec des études à l’appui.
Cette tendance semble donc se confirmer dans cette étude.
Les tendances générales des pages dans le top 10
- Les pages dans le top 3 ont un CTR moyen de 36% (23% top 10 / 16% top 20)
- Le taux de rebond moyen des pages dans le top 20 oscille autour de 45%.
- Le temps moyen des 5 premiers résultats est autour de 200 secondes, 190 secondes pour le top 10, et 170 secondes pour le top 20
Naturellement le CTR dépend de la position, il est donc impensable de viser un CTR d’un top 3 sans avoir une page dans ces positions. Mais gardez en tête que c’est un critère possible pour positionner un site, il ne faut donc pas le négliger.
A noter que le temps moyen passé sur les pages dans le top 10 a drastiquement augmenté par rapport aux années précédentes.
En 2014, il était autour de 2 minutes (3 minutes et 20 secondes désormais)
3 – Les facteurs techniques
Cette partie concerne seulement la partie technique du site. Elle n’a donc aucun lien avec le contenu.
Par exemple lorsqu’on parle de présence de balise H1, on parle juste de ça, peu importe le contenu à l’intérieur.
Les tendances générales des pages dans le top 10
- Une balise h1 est présente dans 85% des 20 premiers résultats
- Une balise h2 est présente dans 77% des 10 premiers résultats (75% pour le top 20)
- 86% des sites dans le top 10 sont en .com (82% dans le top 20)
- Les pages dans le top 10 font autour de 150 ko sur ordinateur, contre 93 ko sur mobile.
- Le temps de chargement des pages est de 8 secs sur ordinateur (7 secs sur mobile)
- Les URLs dans le top 20 font en moyenne 53 caractères
- Un site adapté aux mobiles est nécessaire pour être bien positionné sur Google mobile
- Le HTTPS prend une place de plus en plus importante (nette hausse par rapport à 2015)
A la lumière de ces informations, je vous conseille de remplir les conditions minimales qui sont simples à ajouter.
Je pense notamment à l’ajout de H1, H2, HTTPS, l’amélioration de la vitesse de chargement des pages, la re-ecriture des URLs et bien sur une version mobile (sans même parler de l’AMP)
Si certaines améliorations techniques prennent trop de temps / ressources, inutile d’y passer des mois. Les données ci dessus démontrent qu’on peut être bien classé sans avoir un site techniquement irréprochable.
4 – L’expérience utilisateur
Les tendances générales des pages dans le top 10
- L’important n’est pas d’avoir beaucoup de liens internes, mais une structure claire.
- Il y a en moyenne 25 liens sortants sur les pages dans le top 10.
- Les pages comptent autour de 1.6 images en moyenne (> 200 px)
- 50% des pages ont intégré une vidéo au contenu(30% pour les recherches mobiles)
- Par rapport à l’année dernière, le « font size » est supérieur de 10%
- Sur mobile, il faut limiter les éléments (menus, boutons, etc) et mettre en avant les contenus
- Les pages avec des listes non-ordonnées sont mieux placées que l’année dernières.
- Plus une page est haute, plus les chances sont grandes qu’elle ait une liste
- Les pages utilisant du flash ont quasiment disparu des 10 premiers résultats.
De manière globale, il faut travailler pour améliorer l’expérience utilisateur, notamment sur mobile. Les contenus doivent être plus lisibles, mieux ordonnés, et contenir des illustrations images ou vidéos. Le flash est à bannir.
A noter que Google a récemment déclaré qu’une absence totale de liens externes ne donnait lieu à aucune pénalité. Mais beaucoup pensent (moi inclus) que des liens externes pertinents permettent de mieux positionner une page.
5 – Les signaux sociaux
Les tendances générales des pages dans le top 10
- Au plus un site est haut dans Google, au plus il a été partagé sur les réseaux sociaux.
- Quelque soit le réseau social étudié la tendance est la même.
- Il faut donner aux visiteurs l’envie et les moyens de partager les pages d’un site.
- Il y a une différence significative de partages entre le résultat placé en numéro 1 et les autres.
Les signaux sociaux semblent être un facteur important pour positionner une page.
6 – Les backlinks
Les tendances générales des pages dans le top 10
- Les backlinks ne sont plus aussi déterminants que par le passé
- Mais ils restent encore très importants
- Tous les types de backlinks (dofollow / nofollow / .edu) sont nettement plus hauts pour les 1ers résultats que les suivants
Infographie résumant l’essentiel des conclusions facteur par facteur

Télécharger l’infographie en PDF
Conclusion
SearchMetrics indique que ce type de rapport ne sera plus publié à l’avenir à cause de l’évolution de l’algorithme de Google.
Cette étude doit être considérée non pas comme une source de vérité universelle, mais comme une base de travail pour les webmasters, consultants SEO, ou agences webmarketing.
Dans le futur, SearchMetrics réalisera des études plus spécifiques à certains secteurs, puisqu’il semble que Google modifie ses facteurs de positionnement selon ce critère.