Liste der speziellen Website -Roboter in Google für eine genaue SEO -Konfiguration

Liste der speziellen Website -Roboter in Google für eine genaue SEO -Konfiguration

Einige Suchroboter werden nicht von einem Standardindexierungssystem verwendet, sondern von einzelnen Produkten, mit denen die Eigentümer Ihrer Website eine besondere Vereinbarung über Scanbedingungen haben. Zum Beispiel kann ein bestimmter Roboter globale Richtlinien umgehen robots.txt, für alle Agenten (*) angegeben, wenn die Erlaubnis vorliegt.

Solche spezialisierten Roboter arbeiten mit anderen IP -Bändern als gewöhnliche Suchmaschinen. Die tatsächlichen Bereiche sind in einer speziellen JSON -Datei aufgeführt. Ihre umgekehrten DNS-Rekords haben eine Art Art von Typ rate-limited-proxy-***-***-***-***.google.com.

Die Liste solcher Agenten ist unten angegeben, ihre Benutzer-Agent-Zeilen, die verwendet für die verwendeten Werte robots.txt Und eine Beschreibung des Einflusses ihrer Einstellungen auf die Arbeit der Dienste. Die Liste ist nicht erschöpfend, enthält jedoch die Roboter, die am häufigsten in den Protokollen auftreten und Fragen unter den Eigentümern von Site aufwerfen.

Die Website der Website in Google und deren Interaktion mit Benachrichtigungen

Benutzer-Agent: Apis-hooogle

Aufzeichnung in Robots.txt:user-agent: APIs-Google

Ignoriert globale Regeln *.

user-agent: APIs-Google
allow: /archive/1Q84
disallow: /archive/

Wird von API -Diensten verwendet, um die Lieferung von Push -Nachrichten an Ihre Website zu steuern.

Google Mobile Search Agent für Werbeanalysen

Benutzer-Agent: Adsbot-Google-Mobile

Aufzeichnung in Robots.txt:user-agent: AdsBot-Google-Mobile

Es ignoriert auch globale Regeln.

user-agent: AdsBot-Google-Mobile
allow: /archive/1Q84
disallow: /archive/

Es wird verwendet, um die Qualität der Werbung auf mobilen Versionen der Seiten Ihrer Website zu analysieren.

Google Site Suchmaschine für Desktop -Werbung

Benutzer-Agent: Adsbot-Google

Aufzeichnung in Robots.txt:user-agent: AdsBot-Google

user-agent: AdsBot-Google
allow: /archive/1Q84
disallow: /archive/

Der Roboter überprüft die Effektivität und Einhaltung der Werbung auf den Seiten der Website.

Google Site Agent, Analyse von Inhalten für kontextbezogene Werbung

Benutzer-Agent: MediaPartners-Google

Aufzeichnung in Robots.txt:user-agent: Mediapartners-Google

Um die Richtlinie herumgehen *.

user-agent: Mediapartners-Google
allow: /archive/1Q84
disallow: /archive/

Besuchen Sie Ihre Website, um relevante Werbung und ihre Platzierung auf den Seiten auszuwählen.

Google -Site -Sicherheitsroboter zum Schutz von Benutzern

Benutzer-Agent: Google-Safety

Robots.txt: Es wird völlig ignoriert

Der Roboter dient dazu, böswillige Links und Missbräuche auf den Seiten der Website zu identifizieren. Gehorcht nicht robots.txtwie es ausschließlich aus Sicherheitsgründen funktioniert.

Veraltete Spezialsuchagenten der Website in Google

Im Folgenden finden Sie Agenten, die nicht mehr verwendet werden, aber bevor sie in Protokollen vorhanden sein oder das Scanverhalten beeinflussen.

Alter Mobile Site Agent in Google, um die Qualität der Werbung zu bewerten

Benutzer-Agent: ADSBOT-Google-Mobile (veraltet)

Robots.txt: Ich habe globale Regeln ignoriert

Es wurde verwendet, um die Qualität der Werbung auf Seiten von Mobilgeräten zu bewerten.

Google Site Agent für automatische interaktive Dienste

Benutzer-Agent: Duplexweb-Google

Robots.txt: Könnte die Richtlinie ignorieren *

Es wurde von automatisierten Diensten verwendet, um mit dem Inhalt der Site -Seiten zu interagieren.

Site -Roboter in Google, um Favikonok zu sammeln

Benutzer-Agent: Google Favicon

Robots.txt: Verwendete Standard -Token Googlebot-Image Und Googlebot

Er war für die Anzeige und Auswahl des Site -Symbols in Suchschnittstellen verantwortlich.

Google Site Suchmaschine zur Analyse mobiler Anwendungsseiten

Benutzer-Agent: Adsbot-Google-Mobile-Apps

Robots.txt: Befolgte die Regeln von Adsbot-Google und ignorierte *

Analysierte die Seiten von Android -Anwendungen, um ihre Einhaltung der Werbeanforderungen zu bewerten.

Leichterer Site -Agent in Google, das für das schnelle Laden ausgelegt ist

Benutzer-Agent: GoogleWeblight

Robots.txt: Ich habe die Regeln ignoriert, da sie nur für eine Benutzeranforderung aktiv war

Dieser Agent lieferte eine vereinfachte Version der Site -Seiten während einer langsamen Verbindung, in der das Vorhandensein eines Headers überprüft wurde no-transform.

Für alle Probleme des Setzens von Robots.txt, Scanners Management sowie durch SEO-Optimierung können Sie sich wenden SEO Company seo.computer:info@seo.computer WhatsApp: +7 920 204-44-61

ID: 86

Senden Sie eine Anfrage und wir beraten Sie gerne An SEO Werbung für Ihre Website