Wie die Suchmaschinen die Datei robots.txt für Ihre Google -Site analysiert

Wie die Suchmaschinen die Datei robots.txt für Ihre Google -Site analysiert

Automatische Roboter von Suchmaschinen, wie z. B. Google, wenden Sie sich an die Datei robots.txtDas befindet sich in der Wurzel Ihrer Website. Diese Datei enthält Anweisungen, welche Abschnitte scannen dürfen und welche nicht. Es ist wichtig zu verstehen, dass ein solches Protokoll nicht für Benutzerdienste oder Sicherheitsinstrumente gilt, die anders funktionieren.

Was ist eine Robots.txt -Datei für Ihre Google -Site?

Um den Zugriff von Robotern auf bestimmte Abschnitte der Ressource zu beschränken, können Sie eine Datei auf Ihrer Website erstellen robots.txtIn denen die Regeln für jeden Roboter vorgeschrieben sind. Beispiel der Struktur:

User-agent: *
Disallow: /includes/
User-agent: Googlebot
Allow: /includes/
Sitemap: https://example.com/sitemap.xml

Diese Datei regelt, welche Teile der Site indexiert werden können und welche - Nr. Um von Grund auf neu zu lernen, wird empfohlen, mit den Grundprinzipien der Arbeiten vertraut zu beginnen robots.txt und Empfehlungen für seine Zusammenstellung.

Wo Sie eine Datei robots.txt auf Ihrer Google -Website veröffentlichen können

Die Datei sollte streng im Stamm der Website sein (zum Beispiel, zum Beispiel, https://ваш_сайт/robots.txt). Es funktioniert nur für diese Kombination aus Domäne, Protokoll und Port, an der es platziert wird. Podomeni, andere Ports und Protokolle erfordern eine separate Datei robots.txt.

Beispiele für die richtigen Adressen der Datei robots.txt -Datei Ihrer Website für Google

  • https://example.com/robots.txt - Es funktioniert für https://example.com/aber nicht für http:// oder andere Subdomänen.
  • https://www.example.com/robots.txt - nur abdeckt www.
  • ftp://example.com/robots.txt -Wir bewerben sich ausschließlich für das FTP -Protokoll.

Fehlerverarbeitung und HTTP -Antwortcodes auf Ihrer Google -Website

Abhängig vom Antwortcode beim Versuch, eine Datei zu erhalten robots.txtDas Verhalten von Suchrobotern ändert sich:

  • 2xx -Codes - Die Datei wird gelesen und verwendet.
  • 3xx -Codes - Wenn mehr als 5 Weiterleitungen sind, wird die Datei als unzugänglich angesehen.
  • 4xx -Codes (außer 429) - Es wird angenommen, dass es keine Verbote gibt.
  • 5xx -Codes - Mit Fehlern von Servern kann der Roboter den Standort der Website vorübergehend stoppen.

Wie Google die Datei robots.txt für Ihre Website zwischengespeichert

Roboter können den Inhalt der Datei bis zu 24 Stunden zwischenstrichen, aber bei Problemen (Zeitüberschreitungen, Fehler) kann die Frist zunehmen. Schlagzeilen Cache-Control Beeinflussen auch das Verhalten des Caching.

Robots.txt -Dateiformat und -Codierung für Google Site

Die Datei sollte sich in der UTF-8-Kodierung befinden, wobei die Teilnehmer der CR-, CR/LF- oder LF-Zeilen. Falsche Symbole oder -content werden ignoriert. Die maximal zulässige Dateigröße beträgt 500 KIB, der Rest wird ignoriert.

Syntax und unterstützte Robots.txt -Direktiven in Google für Ihre Website

Jede Zeile besteht aus Schlüssel, Dickdarm und Werten. Es darf nach dem Zeichen Kommentare hinzufügen #. Die folgenden Felder werden unterstützt:

  • Benutzer-Agent - Zeigt an, für welchen Roboter die Regeln anwendbar sind.
  • Erlauben - Der zulässige Weg.
  • Nicht zulassen - Verbotener Weg.
  • Sitemap - Vollständige Adresse der Site -Karte.

Alle Pfade sind empfindlich gegenüber dem Register und sollten mit beginnen mit /.

Erläuterung durch Benutzer-Agent: Geben Sie die Regeln für bestimmte Roboter Ihrer Website in Google an

Bedeutung user-agent Nicht empfindlich gegenüber dem Register. Verwenden Sie den genauen Namen des Roboters, um bestimmte Regeln anzugeben. Andernfalls wird die globale Vorlage verwendet *.

Was macht die Unzulässer -Anweisung in der Datei robots.txt -Datei Ihrer Website in Google?

Begrenzt den Zugang von Robotern auf die angegebenen Pfade. Die URL kann jedoch in den Suchergebnissen ohne Seitenfragment immer noch angezeigt werden.

Funktionen zulassen: So erhalten Sie Zugriff auf die Abschnitte Ihrer Website in Google

Ermöglicht den Zugriff auf bestimmte Pfade, auch wenn sie teilweise unter Verbotsregeln fallen.

So geben Sie Sitemap in Robots.txt für Ihre Google -Site an

Es darf Links zur Site -Karte veröffentlichen. Es kann einige von ihnen geben. Die Adresse sollte absolut und korrekt sein. Sie sind für alle Roboter anwendbar, wenn nicht separat verboten.

Gruppierung von Regeln in Robots.txt Ihre Website in Google

Ein Satz von Regeln kann auf mehrere Benutzer-Agent gleichzeitig angewendet werden, wodurch die Benutzer-Agent-Zeilen nach dem anderen vor den Grundregeln wiederholt werden.

Bestimmen Sie Prioritäten für den Benutzeragenten in der Datei roboots.txt Ihrer Website auf Google

Der spezifischste Benutzer-Agent wird ausgewählt. Wenn mehrere Zufälle gefunden werden, wird die längste und genaueste genommen. Allgemeine Regeln * Nicht mit privaten kombiniert.

Beispiele für die Gruppierung von Robots.txt -Regeln auf der Website in Google

Wenn mehrere Blöcke zu einem Roboter gehören, werden sie automatisch kombiniert. Die verbleibenden Linien wie Sitemap werden beim Gruppieren nicht berücksichtigt.

So vergleichen Sie die URL -Routen und Robots.txt -Regeln in Google für Ihre Website

Der Pfad aus der Regel wird mit der Seite der Seite verglichen. Symbole funktionieren * (jedes Symbol, 0 oder mehr) und $ (Ende der Linie). Beispiele:

  • / - fällt mit der Wurzel des Standorts und aller investierten URLs zusammen.
  • /fish - Alle Wege beginnen auf /fish.
  • /fish/ - Nur diejenigen, bei denen am Ende eindeutig Slash angezeigt wird.
  • /*.php - Alle Dateien mit der Erweiterung .php.
  • /*.php$ - Nur diejenigen, die in .php enden.

Die Priorität der Regeln zulässigen und abgelehnt in der Datei robots.txt auf Ihrer Website für Google

Wenn gleichzeitig widersprüchliche Regeln vorhanden sind, wird es verwendet, was auf dem Weg länger und weniger restriktiv ist. Das heißt, in kontroversen Fällen wird der genauesten Auflösungsregel Priorität gegeben.


Wenn Sie Hilfe beim Erstellen, Überprüfen oder Einrichten einer Robots.txt -Datei für Ihre Website erhalten möchten, wenden Sie sich an die SEO -Agentur CEO. Schreiben Sie in E -Mail: info@seo.computer Oder in WhatsApp: +7 920 204 44 61.

ID: 159

Senden Sie eine Anfrage und wir beraten Sie gerne An SEO Werbung für Ihre Website