Cet article décrit en détail comment le code d'état HTTP différent, ainsi que les erreurs de réseau et de DNS affectent la visibilité du site dans le moteur de recherche Google. Les réponses du serveur les plus courantes et les principaux types d'erreurs que le bot de recherche peuvent rencontrer lors du contournement de votre site sont pris en compte. Les codes et protocoles plus rares ne sont pas pris en compte. Tous les problèmes décrits provoquent des erreurs ou des avertissements appropriés dans les rapports d'indexation de votre site dans la console de recherche Google.
Les fonctions expérimentales des protocoles HTTP et FTP ne sont pas prises en charge si le texte n'est pas indiqué autrement.
Le code d'état HTTP est les réponses du serveur à laquelle le client est adressé, qu'il s'agisse d'un navigateur ou d'un robot de recherche lors de la demande d'une page de site. Chaque code a une certaine valeur, mais souvent le processus de traitement est similaire. Par exemple, plusieurs codes indiquent un transfert, mais le résultat est un succès sur l'URL finale.
Google Search Console enregistre les erreurs des codes de la plage 4xx et 5xx, ainsi que des redirections infructueuses (3xx). Si le serveur renvoie le code 2xx, le contenu de la page peut être accepté pour l'indexation, mais il n'y a aucune garantie.
Vous trouverez ci-dessous un tableau avec le code d'état HTTP principal, qui se trouve le plus souvent lors de la numérisation du site et de leur influence sur l'indexation dans Google.
Ces codes signifient la transmission réussie du contenu que Google peut traiter pour l'indexation. Cependant, si la page contient une erreur, par exemple, le contenu vide ou le message d'erreur, Google peut le classer comme une erreur douce 404.
200 (ok) - La page est chargée avec succès, le contenu est transféré au système d'indexation. L'indexation est possible, mais pas garantie.
201 (créé), 202 (accepté) - Googlebot s'attend à ce que le contenu obtienne un temps limité, après quoi il envoie des données disponibles pour l'indexation. Le temps d'attente dépend du type d'agent.
204 (pas de contenu) - Googlebot dit au système d'indexation qu'il n'y a pas de contenu. Dans le rapport d'indexation, cela peut ressembler à une erreur douce 404.
Googlebot peut traverser une chaîne d'un maximum de 10 redirections. Si la limite est dépassée et que le contenu n'est pas reçu, l'erreur de redirection sera dans le rapport d'indexation. Le nombre de transitions dépend du type de Googlebot.
Tous les contenus de l'URL Rediters sont ignorés et seule l'URL finale est acceptée pour l'indexation. Pour les fichiers robots.txt avec des codes 3xx, des règles spéciales sont utilisées.
301 (ému pour toujours) - Googlebot suit la redirection et considère l'URL finale de la principale, la transmettant sur le poids de la page.
302 (temporairement déplacé) - Googlebot suit la redirection, mais le signal vers la canonalité est plus faible.
303, 304 (n'a pas changé) - Google rapporte que le contenu n'a pas changé par rapport à la dernière visite et n'indexe plus.
307, 308 - De même 302 et 301, respectivement, mais sémantiquement différent. Pour votre site, utilisez le bon code pour une meilleure compatibilité avec les autres clients.
Les pages avec des réponses 4xx ne sont pas prises en compte pour l'indexation, et si elles sont déjà dans l'index, elles sont supprimées. Le contenu de ces pages est complètement ignoré.
400 (demande incorrecte) Et l'autre 4xx, sauf 429, signifie qu'il n'y a pas de contenu, et l'URL est exclue de l'index. La fréquence de contournement de telles pages est progressivement réduite.
N'utilisez pas 401 et 403 pour limiter la fréquence de détour - ces codes n'affectent pas la vitesse de balayage. Pour restreindre la contournement, utilisez des paramètres spéciaux.
401 (non autorisé), 403 (interdit), 404 (non trouvé), 410 (supprimé), 411 (longueur requise)
429 (trop de demandes) - Google perçoit ce code comme un signe de surcharge du serveur, appartenant aux erreurs de serveur.
Les erreurs de 5xx et 429 entraînent une diminution temporaire de la vitesse de contournement du site. Les URL déjà indexées sont préservées, mais avec des erreurs constantes seront supprimées de l'indice.
Les pages de 5xx ne sont pas prises en compte lors de l'indexation. Pour robots.txt, il existe des règles distinctes avec 5xx.
500 (erreur interne du serveur) - Google réduit la fréquence du contournement du site en fonction du nombre de telles erreurs.
502 (Bad Gateway), 503 (le service n'est pas disponible) - Actions similaires pour restreindre la numérisation.
Une erreur Soft 404 se produit si la page renvoie l'état de 200, mais contient un message d'erreur ou un contenu vide. Cela peut être causé par des problèmes techniques, par exemple, l'absence de fichiers inclus ou une page de recherche vide.
Ces pages créent une mauvaise expérience utilisateur et sont exclues de Google Indexation. Le rapport sur la console de recherche affiche un avertissement concernant une erreur Soft 404.
Les options de solution dépendent de la situation et du résultat souhaité:
Renvoie le statut HTTP 404 ou 410 pour une page sans remplacement afin que les moteurs de recherche sachent qu'il doit être supprimé de l'index. Configurez la page 404 de l'utilisateur avec des conseils et une navigation utiles pour les visiteurs.
L'utilisateur 404 doit renvoyer le code 404 pour éviter d'indexer ces pages.
Configurez une redirection constante 301 vers une nouvelle page avec un contenu similaire afin que les utilisateurs et les moteurs de recherche passent correctement aux informations pertinentes. Vérifiez la réponse correcte via l'outil de vérification de l'URL.
Peut-être que Googlebot n'a pas pu charger correctement la page en raison du manque de ressources, des erreurs dans le code ou les verrous. Utilisez l'outil de test d'URL pour afficher le dessin de la page et le code HTTP. Les problèmes de chargement des ressources, tels que les scripts et les images, peuvent conduire à une légère erreur 404.
Les principales raisons sont les verrous dans robots.txt, trop de ressources sur la page, les erreurs de serveur, le téléchargement lent ou les fichiers trop volumineux.
Les erreurs de réseau et de DNS affectent rapidement négativement la position du site dans la recherche. Googlebot, lors de la détection des délais d'expiration, des décharges de connexion ou des problèmes avec le DNS, commence à réduire la fréquence de détour, car il comprend que le serveur ne fait pas face à la charge.
Étant donné que le contenu n'est pas obtenu avec de telles erreurs, Google ne peut pas indexer les pages et les pages précédemment indexées qui sont devenues indisponibles sont supprimées de la recherche dans quelques jours. Dans les rapports de la console de recherche, il existe des erreurs correspondantes.
Si vous ne contrôlez pas le serveur vous-même, nous vous recommandons de contacter votre fournisseur d'hébergement ou de CDN.
Des erreurs de réseau peuvent se produire avant le traitement de la demande par le serveur ou dans le processus de numérisation. L'absence de code HTTP complique le diagnostic. Pour éliminer les erreurs dans le temps de sortie et la réinitialisation de la connexion:
Les problèmes peuvent être associés à des interfaces de réseau de surcharge ou à une mauvaise fermeture des ports, ce qui entraîne une perte de packages et une décharge de connexions.
Le plus souvent, les erreurs DNS sont causées par des demandes de réglage ou de blocage inappropriées au niveau du pare-feu. Pour diagnostiquer les étapes suivantes:
Pour toute question pour améliorer l'indexation de votre site sur Google, nous vous recommandons de contacter la société SEO PDG par e-mail info@seo.computer Ou via WhatsApp +79202044461.
ID 70