Comment diagnostiquer une baisse de trafic organique d’un site

Vous avez commercialisé votre site Web de commerce électronique et pris toutes les bonnes mesures pour vous assurer qu’il est beau, transmet un message et une voix de marque parfaits, et son prix est compétitif. Votre présence sur les réseaux sociaux décolle. Les commandes arrivent. Vous êtes sur le nuage neuf. Et puis, avec une dose rapide et lourde de réalité, le trafic organique de votre site Web commence à baisser et à baisser rapidement.

Ne paniquez pas! Vous n’êtes pas le premier propriétaire de site à en faire l’expérience – et vous ne serez pas le dernier. Le trafic de chaque site Web fluctue, mais s’il y a un problème avec le site, c’est une bonne occasion de diagnostiquer ce qui pourrait en être la cause. Nous avons compilé quelques suspects habituels pour les baisses et les baisses de trafic sur le site Web qui pourraient s’appliquer à vous.

Est-ce une baisse ou est-ce un déclin?

Avant de retrousser nos manches et de vérifier sous le capot pour trouver ce qui pourrait causer le problème, nous devons distinguer si nous avons une baisse de trafic ou une baisse de trafic. Une baisse est rapide et soudaine et indique un problème technique ou une pénalité que Google a infligée à votre site. Un déclin est progressif et pourrait parler d’un changement d’algorithme de recherche ou d’un autre problème. Commençons par une goutte.

Diagnostiquer une baisse de trafic organique

Connectez-vous au compte Google Search Console de votre site pour voir s’il y a de nouveaux messages. Il s’agirait de messages directement de Google concernant des problèmes tels que des pages inaccessibles ou des suggestions qu’ils ont pour votre site. Les messages de site dans la Search Console ne sont pas toujours de mauvaises nouvelles, alors ne présumez pas la pire si vous voyez un nouveau message. Certains pourraient être préventifs, comme cet exemple où Google informe le propriétaire du site qu’il doit préparer son site pour une fonctionnalité de champ de recherche de lien annexe.

Deuxièmement, vérifiez si Google a effectué des actions manuelles sur votre site. Celles-ci prendraient la forme de pénalités propres à votre site. Par exemple, Google pourrait vous pénaliser pour une quantité non naturelle de liens de mauvaise qualité pointant vers votre site. Ou peut-être que vous êtes un revendeur de produits manufacturés et que vous avez dupliqué des descriptions de produits sur votre site. Google pourrait juger la duplication suffisamment importante pour vous pénaliser. Il n’y a pas de règle absolue pour le moment où Google décide de pénaliser un site Web, mais nous avons constaté que l’infraction doit être assez sévère pour que Google puisse prendre des mesures manuelles. Cela ne veut pas dire que vous devriez tester les limites de Google, mais vous n’êtes pas immédiatement sans chance si vous avez du contenu dupliqué ou des liens non naturels.

Actions manuelles de la Search Console

Si les messages du site et les actions manuelles ne révèlent pas la réponse, vérifiez le taux d’indexation de votre plan de site. Un site correctement indexé doit avoir un taux d’indexation proche, sinon exact, des pages soumises aux pages indexées. Une énorme disparité indique généralement une pénalité ou un problème technique. S’il s’agit d’un changement plus graduel au fil du temps, cela pourrait indiquer que Google perd sa «confiance» dans certaines pages de votre site Web. L’exemple ci-dessous montre une grande disparité entre les pages soumises et les pages indexées. Ce site Web peut contenir des balises méta ou des descriptions de produits en double qui empêchent Google de comprendre la différence entre elles, et ne sont donc pas indexées.

En relation :  Comment écrire une lettre de motivation
Contenu des sitemaps de la Search Console

L’état de l’index dans la Search Console peut également indiquer le problème. La capture d’écran ci-dessous, par exemple, montre que Google tente d’accéder aux pages du site de ce marchand qui semblent être bloquées par son fichier robots.txt. Un tel fichier est utilisé pour indiquer à Google quelles parties spécifiques de votre site Web il doit ignorer l’exploration afin qu’il puisse concentrer ses efforts ailleurs. Les bonnes pages à interdire dans un fichier robots.txt incluraient les connexions utilisateur ou votre politique de confidentialité. Ces pages ne servent à aucun but d’être renvoyées dans une page de résultats de recherche Google (SERP). Cela étant dit, si vous avez un très grand nombre de pages qui sont bloquées par votre fichier robots.txt, vous voudrez peut-être examiner ce fichier de plus près pour vous assurer que vous ne bloquez pas par inadvertance une page importante d’être vue et indexée. .

État de l'index de la Search Console

Si aucune de ces parties ne peut indiquer le problème et que vous êtes certain que votre fichier robots.txt est correct, il est temps d’effectuer une recherche sur le site. En tapant “site: www.yourstoreURL.com” dans la barre de recherche de Google, vous pouvez obtenir une liste exacte du nombre de pages de votre site actuellement indexées. La Search Console est un excellent outil, mais il peut être capricieux et obsolète de temps en temps. Si les résultats de la recherche de votre site ne correspondent pas à ce que vous avez trouvé dans la Search Console, la baisse de trafic peut être temporaire.

Plus tôt, nous avons évoqué la possibilité que Google vous ait pénalisé pour des liens non naturels pointés vers votre site. Dans la Search Console, vous pouvez consulter le profil de backlink de votre site pour voir s’il y a quelque chose qui ne semble pas naturel. Des centaines de liens pointés vers une page particulière de votre site sont un signe que certains liens pourraient être du spam, ou peut-être avez-vous travaillé avec une entreprise tierce de création de liens qui a mal fait son travail.

Liens de la Search Console vers le site

Diagnostiquer une baisse de trafic organique

Vous avez donc précisé que votre site n’a pas subi de baisse de trafic, qu’il n’a pas été pénalisé par Google et que vous n’avez aucun lien artificiel vers votre site. Impressionnant! Nous devons encore gérer ce trafic en baisse. La plupart des mises à jour d’algorithmes ne sont pas soudaines, mais plutôt graduelles et se déroulent par étapes. L’algorithme Penguin de Google, par exemple, se concentre sur les profils de liens des sites Web et subit régulièrement de petites mises à jour graduelles. Si vous pouvez comparer le trafic de votre site Web dans Google Analytics, vous pourrez peut-être détecter à quel moment le trafic a commencé à baisser. Nous vous recommandons d’utiliser une variété de plages de dates telles que six mois par rapport aux six mois précédents ou des données d’une année à l’autre.

En relation :  Détails du produit: Comment rédiger des descriptions de produits que les clients aiment

Si vous parcourez les données de trafic de votre site dans Google Analytics et que vous êtes en mesure de déterminer quand les choses ont commencé à changer, Google recherche une expression telle que “Calendrier de mise à jour de l’algorithme Google” et examine quand Google a apporté des modifications documentées. Moz a un gfonctionnalité reat sur leur site qui archive des années de mises à jour des algorithmes de Google. Ajoutez-le à vos favoris. C’est bon.

Quelques causes courantes de baisse du trafic organique

Disons qu’il n’y a pas de mise à jour de l’algorithme que nous pouvons attribuer à la baisse du trafic. Avant de vous cogner la tête sur un bureau, considérons quelques autres facteurs. Accédez à la section Acquisition> Sources d’Analytics et voyez comment votre trafic a évolué au fil du temps. Peut être…

  • Vous avez lancé un nouveau support de vente tel que les publicités Amazon ou Pay-Per-Click.
    • Cela peut détourner le trafic de sources telles que le trafic organique ou direct.
  • Un nouveau concurrent arrive sur le marché et sa marque forte fait chuter votre trafic direct.
  • Vous aviez une source de référence solide, comme un blogueur qui a cessé de vous promouvoir activement.
  • Certaines de vos pages les plus performantes ne génèrent pas de trafic.
    • Avez-vous supprimé ces pages et si oui, les redirigez-vous correctement?
  • Avez-vous perdu beaucoup de trafic mobile?
    • Les sites adaptés aux mobiles sont préférés en raison de leur réactivité, quel que soit l’appareil.

En conclusion

Lorsque vous rencontrez une baisse de trafic organique, il y a de fortes chances qu’un drapeau rouge vous indique le problème. Les liens non naturels ou le contenu dupliqué sont des causes courantes. Bien que trouver ces coupables puisse être facile, les réparer ne l’est pas. Cela demande beaucoup de travail et de réparations pour revenir dans les bonnes grâces de Google. Avec une baisse du trafic, le problème peut être plus difficile à voir et indique souvent un changement dans la stratégie marketing de votre site que vous n’auriez peut-être pas envisagé.

À la base, Google valorise un contenu original et de haute qualité et une entreprise honnête et transparente en matière de commerce électronique. Les sites qui offrent une expérience d’achat unique, conviviale et simple se hisseront au sommet des listes. Avez-vous trouvé de bonnes techniques pour diagnostiquer les baisses ou les baisses de trafic? Partagez-les avec nous dans les commentaires ci-dessous!

Moyens Staff
Moyens I/O Staff vous a motivé, donner des conseils sur la technologie, le développement personnel, le style de vie et des stratégies qui vous aider.