SEOs müssen nicht das Programmieren lernen, aber das Verständnis der Crawling- und Rendering-Prinzipien kann dabei helfen, JavaScript von einem potenziellen Problem in einen wertvollen Verbündeten zu verwandeln. In diesem Artikel schauen wir uns an, wie Sie Seiten mithilfe von JS effektiv optimieren können, um ihre Indexierung durch Suchmaschinen zu verbessern.
Wir werden über technische Optimierung sprechen. Fast alle modernen Websites verwenden JavaScript, um die Benutzererfahrung und Interaktivität zu verbessern, Inhalte anzuzeigen und mit Schaltflächen, Menüs und anderen Elementen zu arbeiten. Unser Ziel ist es, das Crawling dieser Seiten zu vereinfachen und häufige Probleme zu vermeiden, die bei der Verarbeitung von mit JavaScript erstellten Inhalten auftreten.
Dieses Material basiert teilweise auf Forschungen und Veröffentlichungen im Bereich der SEO-Optimierung, wofür wir den Autoren unseren Dank aussprechen.
Suchmaschinen, einschließlich Google, streben danach, die gleichen Inhalte abzurufen, die Benutzer im Browser sehen. Google verwendet den Web Rendering Service (WRS), der für das Rendern und Crawlen von Webseiten verantwortlich ist. Dieser Service ist Teil des Caffeine-Indexierungssystems. Schauen wir uns anhand eines vereinfachten Beispiels an, wie die JavaScript-Verarbeitung funktioniert:
Google erhält den endgültigen Code zur Verarbeitung, crawlt und speichert jedoch tatsächlich alle zusätzlichen Ressourcen, die zum vollständigen Rendern der Seite erforderlich sind, wie z. B. JS-Dateien, CSS, XHR-Anfragen, APIs und andere Ressourcen. Allerdings ignoriert der Googlebot möglicherweise einige Ressourcen, wenn sie für die Anzeige des Inhalts nicht wichtig sind.
Der Googlebot sendet eine GET-Anfrage an den Server und empfängt als Antwort HTTP-Header und Seiteninhalte. Wenn der Titel oder das Meta-Tag die Indizierung nicht verhindert, wird die URL zur Anzeige in die Warteschlange hinzugefügt. Es ist wichtig zu bedenken, dass bei der Mobile-First-Indexierung die Anfrage am häufigsten vom mobilen User-Agent von Google kommt. Um herauszufinden, welcher Robot Ihre Website crawlt, können Sie das URL-Inspektionstool in der Search Console verwenden.
Es ist erwähnenswert, dass Sie in HTTP-Headern spezielle Regeln für verschiedene Benutzeragenten konfigurieren können, um beispielsweise die Indizierung für einige Roboter einzuschränken oder einzigartige Inhalte anzuzeigen. Nachfolgend finden Sie ein Beispiel für eine solche Einschränkung, bei der die Indexierung für den Googlebot verboten ist, der Inhalt jedoch für andere Robots verfügbar ist.
Wenn Sie Fragen zur JavaScript-Optimierung oder anderen Aspekten von SEO haben, schreiben Sie mit jeder Frage an das SEO-Studio „SEO COMPUTER“ unter der E-Mail-Adresse info@seo.computer.
ID 1713