Maintenant, regardons les cinq erreurs les plus courantes que vous voudrez éviter lors de la réalisation de tests A/B sur votre boutique en ligne.
Erreur n°1 : Se concentrer uniquement sur le taux de conversion des ventes
Vous devriez faire attention à ne pas juger le succès de votre test A/B simplement en termes de chiffres de vente. Voici quelques autres objectifs qui sont également pertinents lors de l'optimisation des performances globales de votre boutique en ligne :
Augmentation du volume de commandes
Réduction du taux de rebond
Augmentation du trafic
Visites au panier d'achats
Visites au checkout
Taux de revisite plus élevé
Durée de consultation des pages plus longue
Cela peut vous aider à identifier d'autres domaines possibles d'optimisation; par exemple, lorsqu'il y a une augmentation disproportionnée entre deux critères différents.
Exemple : Le test A/B entraîne une augmentation de 50 % du nombre de commandes complétées, mais seulement de 30 % du nombre de visites au checkout. Cela pourrait indiquer que votre processus de checkout doit être davantage optimisé pour augmenter le taux de conversion.
Erreur n°2 : Analyser les résultats trop tôt
Si un outil de test A/B révèle que la version A a 75 % de chances d'être plus efficace que la version B, alors la plupart des détaillants en e-commerce supposeront que le test A/B est un succès et que les résultats sont clairs. Cependant, il est important de continuer le test jusqu'à ce qu'il comprenne un nombre adéquat d'utilisateurs, répartis sur une période de temps plus longue. Un nombre comme 75 % n'est significatif que si le test comprend suffisamment de personnes. D'autres facteurs influencent également le comportement des utilisateurs, tels que ceux-ci :
Saison de l'année
Jour de la semaine
Heure de la journée
Vacances
Événements
Vérifiez si des facteurs comme ceux-ci peuvent influencer les résultats de votre test A/B. En cas de doute, continuez les tests pendant une période plus longue. Pour qu'un résultat de test soit valable, il doit indiquer une probabilité de 90 à 95 % qu'une version soit plus efficace que l'autre. C'est la seule façon d'être sûr qu'il sera utile d'appliquer des changements à l'ensemble de votre site Web.
Erreur n°3 : Optimiser uniquement une page
La conversion est généralement le résultat d'un certain nombre d'interactions qu'un utilisateur a eues avec votre site. En d'autres termes, un utilisateur visite rarement juste une page de produit et décide de faire un achat sans regarder plus loin. Ils naviguent généralement vers d'autres pages, telles que votre page d'accueil, la page de catégorie, les pages de produits, les offres de vente incitative et croisée, le panier d'achats et le checkout. Toutes ces étapes affectent l'expérience globale de votre client potentiel. C'est pourquoi vous ne devriez pas réaliser de tests A/B sur une page, mais plutôt offrir à l'utilisateur une expérience cohérente tout au long de sa visite sur votre site.
Erreur n°4 : Confondre Google avec du contenu double
Il y a deux autres choses à garder à l'esprit pendant vos tests A/B :
définissez la version alternative de votre page de destination sur 'noindex'.
ajoutez la balise canonique au code HTML de la page.
Sinon, Google considérera les versions A et B comme deux pages avec un contenu identique (contenu en double). Au moins l'une des pages sera alors retirée de l'index, ce qui nuit à votre classement SEO. Pour éviter cela, utilisez des éléments de lien canonique dans vos URL.
Erreur n°5 : Considérer les résultats des tests A/B comme permanents
Si une version surpasse une autre pendant les tests A/B, cela ne signifie pas nécessairement qu'elle sera toujours performante six mois plus tard. Rappelez-vous que d'autres facteurs, comme la saisonnalité, influencent également le comportement des utilisateurs. Vous pourriez constater que l'entonnoir de conversion change à nouveau à l'avenir, et il sera alors temps de réévaluer les conclusions passées.