Blog myposeo

Vers une meilleure estimation des taux de clics : un enjeu sous-estimé du SEO

Introduction

Nous allons vous présenter les travaux que nous avons mené en 2021 sur l’estimation des taux de clics.Depuis près de 20 ans, les professionnels du référencement naturel (SEO) s’appuient sur des modèles de taux de clics (CTR) simplifiés, basés uniquement sur la position des résultats dans les moteurs de recherche. Pourtant, plusieurs études récentes montrent que de nombreux facteurs comportementaux , culturels et technologiques [1] influencent le choix de l’utilisateur face à une page de résultats (SERP). L’évolution des moteurs de recherche – avec l’introduction de formats enrichis [3] (featured snippets, carrousels, images) – ainsi que la généralisation de la recherche mobile et le concept des micros-moments [2] ont profondément modifié ces comportements.

Nous avons constaté, à travers notre revue de la littérature, qu’il n’existe aujourd’hui aucun modèle complet ni précis prenant en compte cette complexité. C’est pourquoi dès 2021, nous avons entrepris des travaux de recherche pour essayer de proposer une nouvelle méthodologie d’estimation des taux de clics. Nous avons voulu répondre à une question simple :
Les modèles traditionnels d’estimation du taux de clics sont-ils encore fiables ?
Et si non, peut-on en développer un plus précis, fondé sur les données et les usages réels des internautes ?

Méthodologie et Travaux

Pour répondre à cette problématique, nous avons mis en place une méthodologie robuste mêlant collecte massive de données, analyse statistique et tests expérimentaux. Nous avons collecté plus de 94 millions de positions qualifiées et 34 millions de mots-clés que nous avons croisées avec différentes sources officiels tel que la Search Console, le tout répartis selon le pays (FR ou UK), l’appareil utilisé (Mobile ou Desktop), le format de l’annonce et l’intention de recherche.

À partir de toutes ces données, nous avons étudié le comportement des utilisateurs sur les moteurs de recherche et voulu proposer un modèle d’estimation de taux de clics qui se rapproche le plus possible de la réalité. Pour ce faire nous avons exploité différentes pistes tels que des modèles statistiques classiques (arbres de décision, moyennes pondérées) ou encore une approche par apprentissage automatique (Machine Learning)

Résultats des tests

Un constat sans équivoque :

Nos analyses ont révélé des écarts significatifs : à titre d’exemple, le taux de clics moyen en France est de 4,8 %, contre 20 % au Royaume-Uni. Pour aller plus loin, on voit que sur les 3 premiers résultats de recherches, nous avons 3 fois plus de clics aux Royaumes-Unis par rapport à ce qu’il se passe en France. Autre remarque, sur mobile la majorité des recherches ne donnent lieu à aucun clic, notamment lorsqu’un résultat enrichi est affiché.

Observation de l’évolution des taux de clics par pays

Ces constats viennent remettre en question l’utilisation de grilles fixes de taux de clics encore largement utilisées dans le secteur. Nos données démontrent clairement que cette approche ne reflète plus la réalité des comportements utilisateurs, et qu’une mise à jour méthodologique s’impose.

Modélisation des taux de clics :

Nous avons ensuite cherché à modéliser un taux de clic réaliste, capable de s’adapter au contexte de chaque recherche. les résultats de notre première tentative via des modèles statistiques classiques se sont révélés insuffisamment précis (<50 % de prédictions se sont révélés correctes avec une marge d’erreur ±1 %).


Nous avons alors exploré une approche par apprentissage automatique, en particulier avec un réseau de neurones entraîné sur 50 000 cas réels. Ce modèle intègre différents facteurs (position, format, pays, appareil, intention de recherche) et a obtenu des résultats bien plus convaincants, atteignant près de 70 % de précision pour une marge d’erreur de ±1 %.

Conclusions

Nos travaux montrent que l’estimation du CTR ne peut plus reposer sur des modèles figés. Les différences de comportement entre pays, les usages mobiles, les formats d’annonces et les intentions de recherche sont autant de variables déterminantes. L’approche par machine learning, bien qu’imparfaite à ce stade, constitue une avancée prometteuse vers un modèle de prédiction plus réaliste, plus précis, et surtout mieux aligné avec les comportements réels des utilisateurs.

Aller plus loin

Avec l’avènement des moteurs de recherche génératifs tels que Search GPT ou Perplexity, de nouvelles habitudes s’imposent dans le quotidien des utilisateurs. Ces changements vont à nouveau bouleverser la manière dont les experts SEO travaillent et calculent leur trafics potentiels lors de leurs recherche de mots-clés.

Avec notre nouvel outil Share of Search et nous vous proposons une solution innovante pour suivre le positionnement de votre site et de votre marque dans les moteursGénératifs. Plus d’informations sur shareofsearch.ai

Références

[1] Granka, L. A., Joachims, T., Gay, G. (2004) — Eye-Tracking Analysis of User Behavior in WWW Search[2] Biloš, A. et al. (2018) — Micro-moments of user experience: an approach to understanding online user behavior[3] Tim Soulo – aHref, 2020, Ahrefs’ Study Of 2 Million Featured Snippets: 10 Important Takeaways
[2] Biloš, A. et al. (2018) — Micro-moments of user experience: an approach to understanding online user behavior
[3] Tim Soulo – aHref, 2020, Ahrefs’ Study Of 2 Million Featured Snippets: 10 Important Takeaways

Une étude menée par Jérémy Chiaoui et Ahmed Amir