De pagina's van uw site moeten niet alleen handig en relevant zijn voor gebruikersverzoeken, maar ook correct worden geïndexeerd door zoekmachines om ervoor te zorgen dat de inhoud toegankelijk is voor zoekmachines.
Alle pagina's die waardevol, nuttig en belangrijk zijn voor gebruikers moeten door zoekmachines worden geïndexeerd, terwijl pagina's die dubbel, leeg of van weinig waarde zijn, moeten worden uitgesloten van indexering of op de juiste manier moeten worden geoptimaliseerd.
Technische optimalisatie helpt bij het beheren van het indexeringsproces en vereenvoudigt de interactie tussen zoekmachines en de site.
Met deze tool kunt u alle pagina's van een site analyseren en de nodige gegevens over elk ervan verzamelen.
Het is belangrijk om de volledige site-parseerprocedure te doorlopen met behulp van de "Spider"-modus in het programma. Plak gewoon de site-URL in de Screaming Frog-zoekbalk.
Nadat het parseren is voltooid, gaat u verder met de volgende stap.
Verbroken links zijn links naar pagina's die niet bestaan en resulteren in een 404-fout. U kunt de statuscode van pagina's controleren met behulp van speciale services.
Upload dergelijke links met behulp van een filter op clientfouten (4xx) om detailbestanden te verkrijgen.
Soms leiden pagina's met links gebruikers door naar andere pagina's, wat de ranking van een site kan beïnvloeden. Dergelijke links moeten worden vervangen door hun eindadres om negatieve gevolgen te voorkomen.
Op het tabblad Externe links moet u verbroken links verwijderen, omleidingen repareren en ongewenste externe links sluiten met behulp van het nofollow-attribuut.
Open de tabbladen Paginatitels, Metabeschrijving en H1 om pagina's te controleren op lege of dubbele metatags. Dergelijke pagina's kunnen worden uitgesloten van indexering.
Het is belangrijk ervoor te zorgen dat belangrijke pagina's van uw site niet worden gesloten voor indexering. Zoek in het gedeelte 'Intern' naar pagina's met de vlag 'Niet-indexeerbaar'. Controleer of ze gesloten zijn met behulp van het robots.txt-bestand of de "noindex"-metatag.
Voeg uw site toe aan Yandex.Webmaster, als deze er niet is, en wacht tot de gegevens zijn verzameld. Hiermee kunt u de indexering van uw site en de prestaties van zoekmachines controleren.
Voor effectieve websitepromotie is het belangrijk dat alle belangrijke pagina's worden geïndexeerd en obscene of onbelangrijke pagina's worden uitgesloten.
Ga naar de sectie 'Indexeren - Pagina's in zoekresultaten' om alle geïndexeerde pagina's op de site te bekijken. Zorg ervoor dat deze lijst alleen nuttige en unieke pagina's bevat.
Controleer het gedeelte 'Indexeren - Uitgesloten pagina's' om ervoor te zorgen dat alleen niet-essentiële pagina's worden uitgesloten van indexering en dat alle belangrijke pagina's toegankelijk blijven voor zoekmachines.
Als u nieuwe pagina's maakt, maar deze niet worden geïndexeerd, kunt u forceren dat ze worden geïndexeerd via Yandex.Webmaster.
Maak een sitemap.xml-bestand waarin alle belangrijke pagina's worden vermeld, zodat zoekrobots deze sneller kunnen vinden en indexeren.
Controleer pagina's op dubbele titels en beschrijvingen. Dit kunt u doen in de sectie 'Titels en beschrijvingen'.
Het robots.txt-bestand wordt gebruikt om richtlijnen aan zoekmachines te geven over welke pagina's op een site moeten worden geïndexeerd en welke niet. Zorg ervoor dat belangrijke pagina's niet worden gesloten voor indexering en dat ongewenste pagina's daadwerkelijk worden uitgesloten.
Test de laadsnelheid van de belangrijkste pagina's van uw site met behulp van prestatietesttools. Dit zal u helpen de snelheid van uw site te verbeteren en, als gevolg daarvan, de ranking in zoekmachines.
Als u vragen heeft over technische website-optimalisatie, kunt u per e-mail contact opnemen met de SEO-studio "SEO COMPUTER" info@seo.computer.
Identiteitskaart 9113