WixやBloggerなど、サイトにホスティングサービスを使用する場合、robots.txtファイルを直接編集する必要がない場合があります。代わりに、プロバイダーは、検索エンジンを示すための検索設定ページまたはその他のメカニズムを提供できます。サイトのページをインデックス作成し、どのページがインデックスできません。
検索エンジンからページの1つを非表示または開く場合は、たとえば「WIXの検索エンジンからページを非表示にする方法」という検索クエリを使用して、ホスティングでページの可視性を変更する手順をお読みください。これにより、robots.txtファイルを使用して検索ロボットをバイパスするために使用できるファイルを制御できます。
robots.txtファイルは、サイトのルートにあります。たとえば、www.example.comの場合、robots.txtファイルはwww.example.com/robots.txtにあります。これは、ロボット除外標準例外標準に続く通常のテキストファイルです。
robots.txtファイルは1つ以上のディレクティブで構成されており、それぞれがサイト上の指定されたパスへの特定のロボットにアクセスするか、またはアクセスできるようにします。デフォルトでは、特に指定がない限り、サイト上のすべてのファイルはバイパスに許可されます。
2つのルールを備えた単純なrobots.txtファイルの例を次に示します。
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
このファイルとはどういう意味ですか:
robots.txtファイルの作成とそのテストは、いくつかの段階で構成されています。
robots.txtファイルのルールは、サイトのどの部分をバイパスできるかをロボットを指定するように設計されています。ルールを書くためのいくつかの推奨事項は次のとおりです。
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
robots.txtファイルをサイトにダウンロードした後、検索ロボットで使用できることを必ずテストしてください。これを行うには、ブラウザでscognitoウィンドウを開き、robots.txtに移動します。たとえば、https://example.com/robots.txt。ファイルの内容が表示された場合、処理に利用できることを意味します。
マーキングの問題をテストして排除するには、次のことを使用できます。
robots.txtファイルがアップロードされてテストされた後、Googleロボットは自動的に見つけて使用を開始します。ファイルを手動で送信する必要はありません。ただし、ファイルを更新し、Googleにキャッシュにすばやくアップグレードするようにしたい場合は、Google検索コンソールでrobots.txt更新機能を使用できます。
robots.txtファイルの有用な例を次に示します。
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
robots.txtファイルまたはその他のSEOの問題のセットアップについて質問がある場合は、SEOコンパニオンに連絡できます info@seo.computer またはwhatsappを介して数字で +79202044461。
ID:4