Wenn Sie den Hosting -Dienst für Ihre Website verwenden, z. B. Wix oder Blogger, müssen Sie die Datei robots.txt möglicherweise nicht direkt bearbeiten. Stattdessen kann Ihr Anbieter eine Sucheinstellungsseite oder andere Mechanismen zur Anzeige von Suchmaschinen bereitstellen, auf denen die Seiten der Website indiziert werden können und welche nicht.
Wenn Sie eine der Seiten aus Suchmaschinen ausblenden oder öffnen möchten, lesen Sie die Anweisungen zum Ändern der Sichtbarkeit der Seite bei Ihrem Hosting beispielsweise mit einer Suchabfrage „So verbergen Sie eine Seite vor Suchmaschinen in Wix“. Auf diese Weise können Sie steuern, welche Dateien für die Umgehung von Suchrobotern mithilfe der Datei robots.txt verfügbar sein können.
Die Datei robots.txt befindet sich im Root Ihrer Website. Beispielsweise finden Sie für www.example.com die Datei robots.txt unter www.example.com/robots.txt. Dies ist eine reguläre Textdatei, die dem Ausnahmestandard für Roboter Exclusion Standard ausnahmbar ist.
Die Datei robots.txt besteht aus einer oder mehreren Anweisungen, von denen jede Blöcke oder Zugriff auf einen bestimmten Roboter auf den angegebenen Pfad auf der Website ermöglicht. Standardmäßig sind alle Dateien auf der Site für den Umgehungsstall zulässig, sofern nicht anders angegeben.
Hier ist ein Beispiel für eine einfache Robots.txt -Datei mit zwei Regeln:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
Was bedeutet diese Datei:
Das Erstellen einer Robots.txt -Datei und deren Tests besteht aus mehreren Phasen:
Die Regeln in der Datei robots.txt -Datei sollen Roboter angeben, die Teile Ihrer Website umgangen werden können. Hier sind einige Empfehlungen zum Schreiben der Regeln:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
Stellen Sie nach dem Herunterladen der Datei robots.txt auf die Website sicher, dass sie für Suchroboter verfügbar ist. Öffnen Sie dazu das Inkognito -Fenster in Ihrem Browser und gehen Sie zu Ihrem Robots.txt, z. B. https://example.com/robots.txt. Wenn Sie den Inhalt Ihrer Datei sehen, bedeutet dies, dass sie zur Verarbeitung verfügbar ist.
Um Probleme mit Markierungen zu testen und zu beseitigen, können Sie verwenden:
Nachdem die Datei robots.txt hochgeladen und getestet wurde, finden Google Robots sie automatisch und beginnt sie zu verwenden. Es ist nicht erforderlich, die Datei manuell zu senden. Wenn Sie jedoch die Datei aktualisiert haben und Google möchten, dass Google sie schnell im Cache aktualisiert hat, können Sie die Funktion der Robots.txt -Aktualisierung in der Google -Suchkonsole verwenden.
Hier sind einige nützliche Beispiele für die Datei robots.txt:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
Wenn Sie Fragen zum Einrichten der Datei robots.txt oder anderer SEO -Probleme haben, können Sie sich an unseren SEO -Begleiter wenden info@seo.computer oder durch WhatsApp nach Nummer +79202044461.
ID: 4