Hoe u zelf een site-audit kunt uitvoeren. Deel één

Website-eigenaren proberen vaak inzicht te krijgen in de kwaliteit van hun bronnen en of deze voldoen aan de eisen van zoekmachines. Het is echter niet altijd mogelijk om zelf een website-audit uit te voeren en alle problemen in kaart te brengen.

De beste optie is om een ​​audit te laten uitvoeren door specialisten die uw project grondig kunnen analyseren en aanbevelingen voor verbetering kunnen doen. Maar niet alle website-eigenaren kunnen dergelijke uitgaven betalen, vooral niet in de beginfase, wanneer er al geld is uitgegeven aan het maken en promoten van de site.

In dit artikel bieden we stapsgewijze instructies over hoe u zelf een basissite-audit kunt uitvoeren en in de beginfase de belangrijkste problemen kunt identificeren, waarvan de oplossing uw hulpbron zal helpen verbeteren.

TECHNISCHE AUDIT IS DE BASIS VAN UW SITE

De audit moet beginnen met het technische gedeelte van de site. We zullen in detail analyseren op welke punten u bij de controle moet letten.

Controleer de volgende instellingen om aan de slag te gaan:

  • Beschikbaarheid en correcte configuratie van robots.txt
  • Is er een sitemap?
  • Is de site geregistreerd in systemen voor webmasters?
  • Heeft de site analyses (Yandex.Metrica, Google Analytics)
  • Is er een 301-omleiding geconfigureerd voor duplicaten van de hoofdpagina en secties?
  • Het controleren van de serverreactie op een 404-fout
  • Laadsnelheid van de website
  • Wordt het HTTPS-protocol gebruikt?

Voor nieuwelingen kan het enige tijd duren voordat deze controles zijn voltooid, en dat is volkomen normaal. We leggen gedetailleerd uit hoe u elk van deze punten kunt controleren, zodat u de status van uw site gemakkelijker kunt beoordelen.

ROBOTS.TXT EN DE INSTELLINGEN CONTROLEREN

Om er zeker van te zijn dat u een robots.txt-bestand heeft, voegt u eenvoudig "/robots.txt" toe aan het einde van uw domein in de adresbalk. Bijvoorbeeld zoals dit: jouwsite.ru/robots.txt

Het robots.txt-bestand moet de volgende basisrichtlijnen bevatten:

  • User-agent * — specificeert de robot waarop de scanregels worden toegepast.
  • Disalov — verbiedt het indexeren van bepaalde pagina's of delen van de site.
  • Sitemap — geeft het pad naar de plattegrond aan.

Het is van cruciaal belang dat deze richtlijnen in uw robots.txt-bestand aanwezig zijn, omdat configuratiefouten ertoe kunnen leiden dat zoekmachines uw site niet indexeren.

Voorbeeld van een onjuiste instelling:

Zo'n bestand blokkeert de site-indexering volledig.

Correct installatievoorbeeld:

Dit voorbeeld specificeert dat zoekrobots de site kunnen crawlen, met uitzondering van administratieve secties en zoekpagina's, en specificeert ook het pad naar de sitemap.

BESCHIKBAARHEID VAN SITEMAP (SITEMAP)

De robots.txt-instellingen geven vaak het pad naar de sitemap aan. Het hebben van een sitemap is erg belangrijk voor zoekmachines, omdat het hen helpt uw ​​site beter te indexeren. U kunt handmatig een sitemap maken of speciale programma's gebruiken. De kaart mag alleen belangrijke pagina's bevatten, met uitzondering van pagina's met 404-fouten.

Voor beginners is het belangrijkste om ervoor te zorgen dat het sitemapbestand bestaat en dat er correct naar wordt verwezen door robots.txt. De overige aspecten kunnen worden toevertrouwd aan de ontwikkelaars.

VERBINDING MET YANDEX WEBMASTER EN GOOGLE ZOEKCONSOLE

Dit is een belangrijke stap die veel beginnende webmasters missen. Door uw site te verbinden met Yandex.Webmaster en Google Search Console, krijgt u toegang tot belangrijke informatie over uw site en kunt u ook fouten en tekortkomingen opsporen.

Belangrijkste nuttige secties voor website-eigenaren:

  • Diagnostiek — hier worden de belangrijkste fouten en aanbevelingen voor het verbeteren van de werking van de site weergegeven.
  • Indexering — toont het aantal pagina's dat door zoekmachines is geïndexeerd.
  • Sitestructuur — geeft de structuur van uw site en informatie over de pagina's weer.
  • Koppelingen — toont externe links naar uw site.

Het registreren van een website in deze systemen is heel eenvoudig. Voor Yandex.Webmaster gaat u naar https://webmaster.yandex.ru/, voor Google - https://search.google.com/. Eenmaal geregistreerd, houd rapporten en probleemoplossing in de gaten.

YANDEX METRICS EN GOOGLE ANALYTICS

Met deze analysesystemen kunt u het verkeer op uw website volgen. Het is belangrijk om niet alleen het totale verkeer te evalueren, maar ook de bron, om te begrijpen waar gebruikers vandaan komen.

Tip: Kijk altijd naar gegevens over een langere periode om seizoensvariaties te zien en het werkelijke beeld te begrijpen.

301-OMLEIDING MET DUPLICATEN VAN DE HOOFDPAGINA EN SECTIES

Vaak zijn er op websites duplicaten van de hoofdpagina of secties. Het is belangrijk om een ​​301-redirect in te stellen, zodat alle duplicaten naar de juiste pagina’s worden doorgestuurd. Om dit te controleren, kunt u tools in Yandex.Webmaster of Google Search Console gebruiken, of de links handmatig testen.

SERVERRESPONSCODE 404 CONTROLEREN

Wanneer een sitepagina niet bestaat, moet er een 404-foutcode worden geretourneerd. Om te controleren of de 404-fout correct is geconfigureerd, probeert u naar een niet-bestaande URL op uw site te navigeren. Als het serverantwoord niet 404 is, maar 200, moet u correcties aanbrengen in de serverinstellingen.

LAADSNELHEID VAN DE SITE

De laadsnelheid van websites is een belangrijke indicator voor gebruikers en zoekmachines. Als het laden van een site te lang duurt, kunnen gebruikers deze verlaten en kunnen zoekmachines deze downgraden.

Om uw laadsnelheid te controleren, maakt u gebruik van diensten van bijvoorbeeld Google (https://developers.google.com/speed/pagespeed/insights/). Dit zal helpen zwakke punten te identificeren die verbetering behoeven.

HTTPS

De site moet het beveiligde HTTPS-protocol gebruiken. Zonder dit wordt uw site minder vertrouwd door zowel gebruikers als zoekmachines. Controleer of uw site via HTTPS werkt door de juiste online services te gebruiken of door in de adresbalk van uw browser te kijken.

RESULTAAT

In dit artikel hebben we gekeken naar de basiselementen van een technische website-audit. Dit is nog maar het begin en in het volgende deel duiken we in de SEO-audit, zodat u uw website met meer vertrouwen kunt promoten. Voor aanvullende informatie en hulp bij auditkwesties kunt u per e-mail contact opnemen met de SEO-studio "SEO COMPUTER": info@seo.computer.

Identiteitskaart 6616

Stuur een aanvraag en wij zorgen voor een adviesgesprek op SEO promotie van uw website