Si vous utilisez le service d'hébergement pour votre site, par exemple Wix ou Blogger, vous n'aurez peut-être pas à modifier directement le fichier robots.txt. Au lieu de cela, votre fournisseur peut fournir une page de paramètres de recherche ou d'autres mécanismes pour indiquer les moteurs de recherche, quelles pages du site peuvent être indexées et lesquelles ne sont pas.
Si vous souhaitez masquer ou ouvrir l'une des pages des moteurs de recherche, lisez les instructions pour modifier la visibilité de la page à votre hébergement, par exemple, avec une requête de recherche «Comment masquer une page à des moteurs de recherche dans WIX». Cela vous aidera à contrôler quels fichiers peuvent être disponibles pour contourner les robots de recherche à l'aide du fichier robots.txt.
Le fichier robots.txt est situé à la racine de votre site. Par exemple, pour www.example.com, le fichier robots.txt sera situé à www.example.com/robots.txt. Il s'agit d'un fichier texte régulier qui suit la norme d'exception de la norme d'exclusion des robots.
Le fichier robots.txt se compose d'une ou plusieurs directives, chacune bloque ou permet d'accéder à un robot particulier sur le chemin spécifié sur le site. Par défaut, tous les fichiers du site sont autorisés pour le contournement, sauf indication contraire.
Voici un exemple d'un fichier robots.txt simple avec deux règles:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
Que signifie ce fichier:
Création d'un fichier robots.txt et de ses tests se compose de plusieurs étapes:
Les règles du fichier robots.txt sont conçues pour spécifier les robots quelles parties de votre site peuvent être contournées. Voici quelques recommandations pour rédiger les règles:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
Après avoir téléchargé le fichier robots.txt sur le site, assurez-vous de tester qu'il est disponible pour les robots de recherche. Pour ce faire, ouvrez la fenêtre Incognito dans votre navigateur et accédez à votre robots.txt, par exemple, https://example.com/robots.txt. Si vous voyez le contenu de votre fichier, cela signifie qu'il est disponible pour le traitement.
Pour tester et éliminer les problèmes de marquage, vous pouvez utiliser:
Une fois le fichier robots.txt téléchargé et testé, Google Robots le trouvera automatiquement et commencera à l'utiliser. Il n'est pas nécessaire d'envoyer manuellement le fichier. Cependant, si vous avez mis à jour le fichier et souhaitez que Google le mette rapidement à niveau dans le cache, vous pouvez utiliser la fonction ROBOTS.TXT Mise à jour dans la console de recherche Google.
Voici quelques exemples utiles du fichier robots.txt:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
Si vous avez des questions sur la mise en place du fichier robots.txt ou d'autres problèmes de référencement, vous pouvez contacter notre compagnon de référencement info@seo.computer ou via WhatsApp par numéro +79202044461.
ID: 4