Se você usar o serviço de hospedagem para o seu site, por exemplo, Wix ou Blogger, talvez você não precise editar o arquivo robots.txt diretamente. Em vez disso, seu provedor pode fornecer uma página de configurações de pesquisa ou outros mecanismos para indicar mecanismos de pesquisa, quais páginas do site podem ser indexadas e quais não são.
Se você deseja ocultar ou abrir uma das páginas dos mecanismos de pesquisa, leia as instruções para alterar a visibilidade da página em sua hospedagem, por exemplo, com uma consulta de pesquisa "Como ocultar uma página dos mecanismos de pesquisa no Wix". Isso ajudará você a controlar quais arquivos podem estar disponíveis para ignorar os robôs de pesquisa usando o arquivo robots.txt.
O arquivo robots.txt está localizado na raiz do seu site. Por exemplo, para www.example.com, o arquivo robots.txt estará localizado em www.example.com/robots.txt. Este é um arquivo de texto regular que segue o padrão de exceção padrão de exclusão de robôs.
O arquivo robots.txt consiste em uma ou mais diretivas, cada uma das quais bloqueia ou permite o acesso a um robô específico no caminho especificado no site. Por padrão, todos os arquivos no site são permitidos para desvio, a menos que especificado de outra forma.
Aqui está um exemplo de um arquivo simples robots.txt com duas regras:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
O que esse arquivo significa:
Criar um arquivo robots.txt e seus testes consistem em várias etapas:
As regras no arquivo robots.txt foram projetadas para especificar robôs quais partes do seu site podem ser ignoradas. Aqui estão algumas recomendações para escrever as regras:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
Depois de baixar o arquivo robots.txt no site, teste que ele esteja disponível para robôs de pesquisa. Para fazer isso, abra a janela Incognito no seu navegador e vá para o seu robots.txt, por exemplo, https://example.com/robots.txt. Se você vir o conteúdo do seu arquivo, significa que ele está disponível para processamento.
Para testar e eliminar problemas com as marcas, você pode usar:
Depois que o arquivo robots.txt for enviado e testado, o Google Robots o encontrará automaticamente e começará a usá -lo. Não há necessidade de enviar manualmente o arquivo. No entanto, se você atualizou o arquivo e deseja que o Google o atualize rapidamente no cache, pode usar a função de atualização robots.txt no console de pesquisa do Google.
Aqui estão alguns exemplos úteis do arquivo robots.txt:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
Se você tiver dúvidas sobre como configurar o arquivo robots.txt ou outros problemas de SEO, entre em contato com o nosso companheiro de SEO info@seo.computer ou através do WhatsApp por número +79202044461.
ID: 4