SEO's hoeven geen code te leren, maar het begrijpen van de crawl- en weergaveprincipes kan ertoe bijdragen dat JavaScript van een potentieel probleem in een waardevolle bondgenoot verandert. In dit artikel zullen we bekijken hoe u pagina's die JS gebruiken effectief kunt optimaliseren om hun indexering door zoekmachines te verbeteren.
We zullen het hebben over technische optimalisatie. Bijna alle moderne websites gebruiken JavaScript om de gebruikerservaring en interactiviteit te verbeteren, inhoud weer te geven en te werken met knoppen, menu's en andere elementen. Ons doel is om het crawlproces van deze pagina's te vereenvoudigen en veelvoorkomende problemen te voorkomen die optreden bij het verwerken van inhoud die met JavaScript is gemaakt.
Dit materiaal is mede gebaseerd op onderzoek en publicaties op het gebied van SEO-optimalisatie, waarvoor wij onze dank uitspreken aan de auteurs.
Zoekmachines, waaronder Google, streven ernaar dezelfde inhoud op te halen die gebruikers in de browser zien. Google maakt gebruik van Web Rendering Service (WRS), die verantwoordelijk is voor het weergeven en crawlen van webpagina's. Deze service maakt deel uit van het cafeïne-indexeringssysteem. Laten we eens kijken hoe JavaScript-verwerking werkt aan de hand van een vereenvoudigd voorbeeld:
Google ontvangt de definitieve -code om te verwerken, maar crawlt en cachet feitelijk alle aanvullende bronnen die nodig zijn om de pagina volledig weer te geven, zoals JS-bestanden, CSS, XHR-verzoeken, API's en andere bronnen. Googlebot kan echter bepaalde bronnen negeren als deze niet essentieel zijn voor de weergave van de inhoud.
Googlebot stuurt een GET-verzoek naar de server en ontvangt als reactie HTTP-headers en pagina-inhoud. Als de titel of metatag indexering niet verbiedt, wordt de URL toegevoegd aan de wachtrij voor weergave. Het is belangrijk om te onthouden dat bij mobile-first indexering het verzoek meestal afkomstig is van de mobiele user-agent van Google. Om erachter te komen welke robot uw site crawlt, kunt u de URL-inspectietool in Search Console gebruiken.
Het is vermeldenswaard dat u in HTTP-headers speciale regels voor verschillende user-agents kunt configureren, bijvoorbeeld de indexering voor sommige robots kunt beperken of unieke inhoud kunt weergeven. Hieronder wordt een voorbeeld van een dergelijke beperking gegeven, waarbij indexering voor Googlebot verboden is, maar inhoud wel beschikbaar is voor andere robots.
Als u vragen heeft over JavaScript-optimalisatie of andere aspecten van SEO, kunt u met al uw vragen contact opnemen met de SEO-studio "SEO COMPUTER" op info@seo.computer.
Identiteitskaart 1713