SEO nie muszą uczyć się kodowania, ale zrozumienie zasad indeksowania i renderowania może pomóc zmienić JavaScript z potencjalnego problemu w cennego sojusznika. W tym artykule przyjrzymy się, jak skutecznie zoptymalizować strony korzystające z JS, aby poprawić ich indeksowanie przez wyszukiwarki.
Porozmawiamy o optymalizacji technicznej. Prawie wszystkie nowoczesne strony internetowe używają JavaScript w celu poprawy komfortu użytkowania, interaktywności, wyświetlania treści oraz pracy z przyciskami, menu i innymi elementami. Naszym celem jest uproszczenie procesu indeksowania tych stron i uniknięcie typowych problemów, które pojawiają się podczas przetwarzania treści utworzonych przy użyciu JavaScript.
Materiał ten częściowo opiera się na badaniach i publikacjach z zakresu optymalizacji SEO, za co serdecznie dziękujemy autorom.
Wyszukiwarki, w tym Google, starają się pobierać tę samą treść, którą użytkownicy widzą w przeglądarce. Google korzysta z usługi renderowania sieci Web (WRS), która odpowiada za renderowanie i indeksowanie stron internetowych. Usługa ta jest częścią systemu indeksowania Caffeine. Przyjrzyjmy się, jak działa przetwarzanie JavaScript na uproszczonym przykładzie:
Google otrzymuje ostateczny kod do przetworzenia, ale w rzeczywistości przeszukuje i buforuje wszystkie dodatkowe zasoby potrzebne do pełnego wyrenderowania strony, takie jak pliki JS, CSS, żądania XHR, interfejsy API i inne zasoby. Googlebot może jednak zignorować niektóre zasoby, jeśli nie są one krytyczne do wyświetlania treści.
Googlebot wysyła do serwera żądanie GET i w odpowiedzi otrzymuje nagłówki HTTP oraz treść strony. Jeśli tytuł lub metatag nie zabrania indeksowania, adres URL jest dodawany do kolejki do wyświetlenia. Należy pamiętać, że w przypadku indeksowania zoptymalizowanego pod kątem urządzeń mobilnych żądanie najczęściej pochodzi od mobilnego klienta użytkownika Google. Aby dowiedzieć się, który robot indeksuje Twoją witrynę, możesz skorzystać z narzędzia do sprawdzania adresów URL w Search Console.
Warto zaznaczyć, że w nagłówkach HTTP można skonfigurować specjalne reguły dla różnych user-agentów, na przykład ograniczyć indeksowanie dla niektórych robotów czy wyświetlać unikalną treść. Przykład takiego ograniczenia podano poniżej, gdzie indeksowanie jest zabronione dla Googlebota, ale treść jest dostępna dla innych robotów.
Jeśli masz jakiekolwiek pytania dotyczące optymalizacji JavaScript lub innych aspektów SEO, napisz do studia SEO „SEO COMPUTER” z dowolnym pytaniem na adres info@seo.computer.
ID 1713