Eine schnelle Analyse der Website ohne Verwendung von Checklisten ergab viele technische Fehler. Selbst eine oberflächliche Betrachtung zeigte Probleme, und wenn man tiefer geht, werden es noch mehr davon sein. Nachfolgend werden alle festgestellten Mängel beschrieben. Wenn auf Ihrer Website ähnliche Probleme auftreten, beheben Sie diese, indem Sie den technischen Zustand der Website verbessern, was in Zukunft zu höheren Rankings, mehr Traffic und Umsätzen führen wird. Die Ergebnisse der über zwei Tage erzielten Korrekturen sind am Ende zu sehen.
Kürzlich kontaktierte mich der Besitzer eines Online-Autoteileladens, um ein technisches Audit durchzuführen. Um die Kosten und den Arbeitsaufwand abzuschätzen, müssen Sie zunächst die Website untersuchen: Überprüfen Sie, wie sie von Suchmaschinen indiziert wird, wie viele Seiten im Index enthalten sind und welche davon aus den Suchergebnissen ausgeschlossen sind, und bewerten Sie auch den Verkehr.
Zunächst wurde ein Express-Audit der Website eines Online-Autoteilehändlers durchgeführt.
Ich beantrage Zugriff auf Yandex.Metrica und Yandex.Webmaster, da die Yandex-Tools ein vollständiges Bild des technischen Zustands der Website liefern. Ich beantrage den Zugriff auf die Google Search Console nur, wenn wir mit der Zusammenarbeit beginnen, da diese Tools die Informationen über die Website ergänzen, aber auch ohne sie kann man mit den Yandex-Tools viel verstehen.
Es gibt viele Fehler, die auch ohne eingehende Analyse identifiziert wurden. Schauen wir genauer hin.
Einige Seiten der Website wurden von Suchmaschinen für die Indexierung gesperrt. Eine falsche Konfiguration der robots.txt-Datei führte dazu, dass die Website selbst den Traffic aus den Suchergebnissen einschränkte. Die Regeln in dieser Datei müssen überprüft und angepasst werden.
Als Referenz wird die robots.txt-Datei verwendet, um Suchmaschinen mitzuteilen, welche Seiten einer Website sie indizieren können und welche nicht.
Eine übermäßige Anzahl von Weiterleitungen und Seiten mit 404-Fehlern verlangsamen das Crawlen der Website durch Suchroboter. Dies wirkt sich auf die Geschwindigkeit der Indexierungsänderungen auf der Website und das Erscheinen neuer Seiten in den Suchergebnissen aus, was das Wachstum von Positionen und Traffic und damit den Umsatz verlangsamt.
Es gibt auch Seiten mit einem unbekannten Status, was auf Probleme mit dem Server oder die Unzugänglichkeit eines Teils der Website hinweisen kann, was dazu führen kann, dass sie von Suchmaschinen aus dem Index ausgeschlossen wird.
Die Website enthält Seiten mit identischem Inhalt (Duplikate), was dazu führt, dass der Suchroboter sie aus dem Index ausschließt. Dadurch verringert sich die Anzahl der in den Suchergebnissen angezeigten Seiten, was zu einem Traffic-Verlust und in der Folge zu einem Umsatzrückgang führt.
Es gibt Probleme bei der Generierung der Datei sitemap.xml, die für die korrekte Darstellung der Seitenstruktur durch Suchmaschinen wichtig ist.
Als Referenz: sitemap.xml ist eine Datei, die Suchmaschinen dabei hilft, die Struktur einer Website zu verstehen und alle ihre Seiten zur Indexierung zu finden.
H1-Überschriften sind ein wichtiges Element für Suchmaschinen, da sie ihnen helfen, zu verstehen, worum es auf der Seite geht. Auf einigen Seiten der Website sind sie falsch konfiguriert, was die Indizierung erschwert und die Sichtbarkeit der Seiten bei der Suche beeinträchtigt.
Auf der analysierten Website wurde ein Beispiel einer Seite mit einer 303-Weiterleitung gefunden. Dies ist ein falscher Server-Antwortcode, der nicht auf den Seiten der Website erscheinen sollte.
In Yandex.Webmaster ist die falsche Region angegeben, was sich auf das korrekte Geo-Targeting und die Sichtbarkeit der Website bei relevanten regionalen Suchanfragen auswirken kann.
Einige Elemente der Website weisen Layoutprobleme auf, die ihr Erscheinungsbild und ihre Benutzerfreundlichkeit sowie die Wahrnehmung der Website durch Benutzer und Suchmaschinen beeinträchtigen können.
In den Suchergebnissen sind nur Seiten mit Produkten sichtbar, in Online-Shops geht der Traffic jedoch in der Regel auf Kategorieseiten. Fehlen solche Seiten, erschwert dies das Ranking der Seite in den Suchergebnissen bei vielen Suchanfragen, was sich auch auf das Wachstum von Positionen, Traffic und Umsatz auswirkt.
Auf den ersten Blick gibt es seitens der Suchmaschinen keine Abwärtsfilter. Die Grafiken sind in den letzten zwei Jahren stabil geblieben, was auf ein gewisses Wachstum oder Stabilität, aber keine große Verbesserung hindeutet.
Basierend auf der Analyse kann argumentiert werden, dass der technische Zustand der Website nicht ordnungsgemäß behoben wurde. Es wurden nur grundlegende Titel- und Beschreibungs-Meta-Tags für Seiten geschrieben und mehrere Kategorien erstellt, dies stellt jedoch keine vollständige Optimierung dar. Die Website hat gute Wachstumsaussichten, wenn technische Probleme behoben, die für die Werbung erforderlichen Kategorien hinzugefügt und Produktkarten optimiert werden.
Während der Konsultation bestätigte der Kunde einige der gefundenen Probleme und berichtete, dass sich die Geschwindigkeit des Crawlings der Website durch Suchroboter nach zwei Tagen Arbeit an deren Behebung verbessert habe. Es bleiben jedoch grundlegende technische Fehler bestehen.
Es ist wichtig zu bedenken, dass die korrekte Korrektur technischer Fehler die Ergebnisse der SEO-Werbung erheblich verbessern und Zeit und Geld für die weitere Arbeit mit der Website sparen kann.
Wenn Sie wissen möchten, in welchem technischen Zustand sich Ihre Seite befindet, schreiben Sie bei Fragen per E-Mail an das SEO-Studio „SEO COMPUTER“. info@seo.computer.
ID 9126