如果您为您的网站使用托管服务,例如Wix或Blogger,则可能不必直接编辑robots.txt文件。取而代之的是,您的提供商可以提供一个搜索设置页面或其他指示搜索引擎的机制,该网站的哪些页面可以索引,哪些网站没有。
如果您想隐藏或打开搜索引擎中的一个页面之一,请阅读以“如何在Wix中的搜索引擎中隐藏页面”的搜索查询,以更改托管的页面可见性。这将帮助您控制哪些文件可用于使用robots.txt文件绕过搜索机器人。
robots.txt文件位于您网站的根部。例如,对于www.example.com,robots.txt文件将位于www.example.com/robots.txt上。这是一个遵循机器人排除标准异常标准的常规文本文件。
robots.txt文件由一个或多个指令组成,每个指令都会阻止或允许特定机器人访问站点上指定的路径。默认情况下,除非另有说明,否则允许网站上的所有文件进行旁路。
这是一个简单robots.txt文件的示例,其中有两个规则:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
这个文件是什么意思:
创建一个robots.txt文件及其测试包括多个阶段:
abots.txt文件中的规则旨在指定机器人可以绕过网站的哪些部分。以下是编写规则的一些建议:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
将Robots.txt文件下载到网站后,请确保测试它可用于搜索机器人。为此,请打开浏览器中的隐身窗口,然后转到robots.txt,例如https://example.com/robots.txt。如果您看到文件的内容,则意味着可以处理。
要测试和消除标记问题,您可以使用:
在上载和测试了robots.txt文件之后,Google机器人将自动找到它并开始使用它。无需手动发送文件。但是,如果您已经更新了文件并希望Google快速将其升级在缓存中,则可以在Google搜索控制台中使用robots.txt Update功能。
以下是机器人的一些有用示例。txt文件:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
如果您对设置robots.txt文件或其他SEO问题有疑问,则可以联系我们的SEO Companion info@seo.computer 或通过whatsapp按数字 +79202044461。
ID:4