Les référenceurs n'ont pas besoin d'apprendre à coder, mais comprendre les principes d'exploration et de rendu peut aider à transformer JavaScript d'un problème potentiel en un allié précieux. Dans cet article, nous verrons comment optimiser efficacement les pages à l'aide de JS pour améliorer leur indexation par les moteurs de recherche.
Nous parlerons d'optimisation technique. Presque tous les sites Web modernes utilisent JavaScript pour améliorer l'expérience utilisateur, l'interactivité, afficher du contenu et travailler avec des boutons, des menus et d'autres éléments. Notre objectif est de simplifier le processus d'exploration de ces pages et d'éviter les problèmes courants qui surviennent lors du traitement du contenu créé à l'aide de JavaScript.
Ce matériel est en partie basé sur des recherches et des publications dans le domaine de l'optimisation du référencement, pour lesquelles nous exprimons notre gratitude aux auteurs.
Les moteurs de recherche, y compris Google, s'efforcent de récupérer le même contenu que celui que les utilisateurs voient dans le navigateur. Google utilise Web Rendering Service (WRS), qui est responsable du rendu et de l'exploration des pages Web. Ce service fait partie du système d'indexation Caffeine. Examinons le fonctionnement du traitement JavaScript à l'aide d'un exemple simplifié :
Google reçoit le code final à traiter, mais explore et met en cache toutes les ressources supplémentaires nécessaires au rendu complet de la page, telles que les fichiers JS, CSS, les requêtes XHR, les API et autres ressources. Cependant, Googlebot peut ignorer certaines ressources si elles ne sont pas essentielles à l'affichage du contenu.
Googlebot envoie une requête GET au serveur et reçoit les en-têtes HTTP et le contenu de la page en réponse. Si le titre ou la balise méta n'interdit pas l'indexation, l'URL est ajoutée à la file d'attente pour affichage. Il est important de rappeler que dans des conditions d’indexation mobile first, la requête émane le plus souvent du user-agent mobile de Google. Pour savoir quel robot explore votre site, vous pouvez utiliser l'outil d'inspection d'URL dans la Search Console.
Il convient de noter que dans les en-têtes HTTP, vous pouvez configurer des règles spéciales pour divers agents utilisateurs, par exemple limiter l'indexation de certains robots ou afficher un contenu unique. Un exemple d'une telle restriction est donné ci-dessous, où l'indexation est interdite pour Googlebot, mais le contenu est disponible pour d'autres robots.
Si vous avez des questions sur l'optimisation JavaScript ou d'autres aspects du référencement, écrivez au studio de référencement "SEO COMPUTER" pour toute question à l'adresse e-mail info@seo.computer.
ID 1713