Une analyse rapide du site sans utiliser de listes de contrôle a révélé de nombreuses erreurs techniques. Même une inspection superficielle a révélé des problèmes, et si vous approfondissez, il y en aura encore plus. Toutes les lacunes identifiées sont décrites ci-dessous. Si votre site rencontre des problèmes similaires, résolvez-les en améliorant l'état technique du site, ce qui entraînera une augmentation du classement, du trafic et des ventes à l'avenir. Les résultats des corrections obtenues sur deux jours sont visibles à la fin.
Récemment, le propriétaire d'un magasin de pièces automobiles en ligne m'a contacté pour réaliser un audit technique. Pour estimer le coût et le calendrier des travaux, vous devez d'abord examiner le site : vérifier comment il est indexé par les moteurs de recherche, combien de pages se trouvent dans l'index et lesquelles d'entre elles sont exclues des résultats de recherche, et également évaluer le trafic.
Dans un premier temps, un audit express du site Internet d'un magasin de pièces automobiles en ligne a été réalisé.
Je demande l'accès à Yandex.Metrica et Yandex.Webmaster, car les outils Yandex fournissent une image complète de l'état technique du site. Je demande l'accès à Google Search Console uniquement si nous entamons une coopération, car ces outils complètent les informations sur le site, mais même sans eux, vous pouvez comprendre beaucoup de choses en utilisant les outils Yandex.
Les erreurs sont nombreuses et ont été identifiées même sans analyse approfondie. Regardons de plus près.
Certaines pages du site ont été fermées à l'indexation par les moteurs de recherche. Une configuration incorrecte du fichier robots.txt a conduit le site lui-même à limiter le trafic des résultats de recherche. Les règles de ce dossier doivent être revues et ajustées.
Pour référence, le fichier robots.txt est utilisé pour indiquer aux moteurs de recherche quelles pages d'un site ils peuvent indexer et lesquelles ils ne peuvent pas.
Un nombre excessif de redirections et de pages contenant des erreurs 404 ralentissent l'exploration du site par les robots de recherche. Cela affecte la rapidité des changements d'indexation sur le site et l'apparition de nouvelles pages dans les résultats de recherche, ce qui ralentit la croissance des positions et du trafic, et donc des ventes.
Il existe également des pages au statut inconnu, qui peuvent indiquer des problèmes de serveur ou l'inaccessibilité d'une partie du site, pouvant conduire à son exclusion de l'index par les moteurs de recherche.
Le site contient des pages au contenu identique (doublons), ce qui conduit le robot de recherche à les exclure de l'index. Cela réduit le nombre de pages présentées dans les résultats de recherche, ce qui entraîne une perte de trafic et, par conséquent, une diminution des ventes.
Il existe des problèmes avec la génération du fichier sitemap.xml, ce qui est important pour la présentation correcte de la structure du site par les moteurs de recherche.
Pour référence, sitemap.xml est un fichier qui aide les moteurs de recherche à comprendre la structure d'un site et à trouver toutes ses pages pour l'indexation.
Les titres H1 sont un élément important pour les moteurs de recherche car ils les aident à comprendre de quoi parle la page. Sur certaines pages du site, ils sont mal configurés, ce qui rend l'indexation difficile et affecte la visibilité des pages dans la recherche.
Un exemple de page avec une redirection 303 a été trouvé sur le site analysé. Il s'agit d'un code de réponse du serveur incorrect qui ne devrait pas apparaître sur les pages du site.
La mauvaise région est spécifiée dans Yandex.Webmaster, ce qui peut affecter le ciblage géographique correct et la visibilité du site dans les requêtes de recherche régionales pertinentes.
Certains éléments du site présentent des problèmes de mise en page, qui peuvent affecter son apparence et sa convivialité, ainsi que la perception du site par les utilisateurs et les moteurs de recherche.
Dans les résultats de recherche, seules les pages contenant des produits sont visibles, mais dans les magasins en ligne, le trafic se dirige généralement vers les pages de catégories. Si de telles pages manquent, il est difficile pour le site de se classer dans les résultats de recherche pour de nombreuses requêtes, ce qui affecte également la croissance des positions, du trafic et des ventes.
À première vue, il n’existe pas de filtres descendants de la part des moteurs de recherche. Les graphiques sont restés stables au cours des deux dernières années, indiquant une certaine croissance ou stabilité, mais peu d’amélioration.
Sur la base de l'analyse, on peut affirmer que l'état technique du site n'a pas été correctement pris en compte. Seules les balises méta de titre et de description de base des pages ont été écrites et plusieurs catégories ont été créées, mais il ne s'agit pas d'une optimisation complète. Le site a de bonnes perspectives de croissance si les problèmes techniques sont corrigés, si les catégories nécessaires à la promotion sont ajoutées et si les fiches produits sont optimisées.
Au cours de la consultation, le client a confirmé certains des problèmes rencontrés et a signalé qu'après deux jours de travail sur les correctifs, la vitesse d'exploration du site par les robots de recherche s'était améliorée. Cependant, des erreurs techniques fondamentales subsistent.
Il est important de se rappeler qu'une correction correcte des erreurs techniques peut améliorer considérablement les résultats de la promotion SEO, économisant ainsi du temps et de l'argent pour la poursuite du travail sur le site.
Si vous souhaitez connaître l'état technique de votre site, écrivez au studio SEO "SEO COMPUTER" pour toute question par email info@seo.ordinateur.
ID 9126