Eine häufig gestellte Frage von SEOs ist, wie Suchmaschinen mit der Darstellung von Seiten umgehen, die JavaScript verwenden. Wenn eine Seite mit JS geladen wird, besteht die Sorge, dass der Crawling-Prozess zu langsam ist. In der Praxis beträgt das Rendering-Timeout für das gescannte Dokument jedoch normalerweise nicht mehr als 5 Sekunden.
Beim Rendering-Prozess wird die Seite so gezeichnet, wie sie dem Benutzer im Browser angezeigt wird. Alle Elemente, auch die mit JavaScript erstellten, werden dem Crawler zur Verfügung gestellt, sofern keine Einschränkungen beim Crawlen bestehen und alle Skriptdateien aktuell und zum Download verfügbar sind.
Googlebot verwendet die Chromium-Engine Version 74, wodurch er die meisten Funktionen moderner Browser unterstützen kann. Bedenken Sie jedoch, dass ein Suchbot keine Skripte ausführen kann, die eine Benutzerinteraktion erfordern, wie etwa Klicks oder das Ausfüllen von Formularen. Das bedeutet, dass alles, was indiziert werden muss, sofort im DOM-Dokument verfügbar sein muss. Wenn Elemente nach einem Klick oder einer Interaktion geladen werden, werden sie nicht indiziert.
Darüber hinaus kann der Googlebot nicht durch die Seite scrollen, was Auswirkungen darauf haben kann, welche Teile der Seite geladen und indiziert werden. Für mobile Geräte beträgt die visuelle Größe der Seite 411 Pixel in der Breite und 12.140 Pixel in der Höhe, und für Desktops beträgt sie 1.024 x 9.307 Pixel.
Wenn Sie weitere Informationen benötigen oder Fragen zur JavaScript-SEO-Optimierung haben, können Sie sich bei Fragen per E-Mail an info@seo.computer an das Studio „SEO COMPUTER“ wenden.
ID 1708