Os SEOs não precisam aprender codificação, mas compreender os princípios de rastreamento e renderização pode ajudar a transformar o JavaScript de um problema potencial em um aliado valioso. Neste artigo, veremos como você pode otimizar com eficácia páginas que usam JS para melhorar sua indexação pelos mecanismos de pesquisa.
Falaremos sobre otimização técnica. Quase todos os sites modernos usam JavaScript para melhorar a experiência do usuário, a interatividade, exibir conteúdo e trabalhar com botões, menus e outros elementos. Nosso objetivo é simplificar o processo de rastreamento dessas páginas e evitar problemas comuns que surgem ao processar conteúdo criado em JavaScript.
Este material é parcialmente baseado em pesquisas e publicações na área de otimização SEO, pelas quais expressamos nossa gratidão aos autores.
Os motores de busca, incluindo o Google, se esforçam para recuperar o mesmo conteúdo que os usuários veem no navegador. O Google usa o Web Rendering Service (WRS), responsável por renderizar e rastrear páginas da web. Este serviço faz parte do sistema de indexação de cafeína. Vejamos como funciona o processamento de JavaScript usando um exemplo simplificado:
O Google recebe o código final para processar, mas na verdade rastreia e armazena em cache todos os recursos adicionais necessários para renderizar totalmente a página, como arquivos JS, CSS, solicitações XHR, APIs e outros recursos. No entanto, o Googlebot pode ignorar alguns recursos se eles não forem essenciais para a exibição do conteúdo.
O Googlebot envia uma solicitação GET ao servidor e recebe cabeçalhos HTTP e conteúdo da página em resposta. Se o título ou metatag não proibir a indexação, o URL será adicionado à fila para exibição. É importante lembrar que, em condições de indexação mobile-first, a solicitação geralmente vem do agente de usuário móvel do Google. Para descobrir qual robô está rastreando seu site, você pode usar a ferramenta de inspeção de URL no Search Console.
É importante notar que nos cabeçalhos HTTP você pode configurar regras especiais para vários agentes de usuário, por exemplo, limitar a indexação para alguns robôs ou mostrar conteúdo exclusivo. Um exemplo de tal restrição é dado abaixo, onde a indexação é proibida para o Googlebot, mas o conteúdo está disponível para outros robôs.
Se você tiver alguma dúvida sobre otimização de JavaScript ou outros aspectos de SEO, escreva para o estúdio de SEO "SEO COMPUTER" com qualquer dúvida em info@seo.computer.
ID 1713