Als u de hostingservice voor uw site gebruikt, bijvoorbeeld WIX of Blogger, hoeft u mogelijk het Robots.txt -bestand niet rechtstreeks te bewerken. In plaats daarvan kan uw provider een pagina met zoekinstellingen of andere mechanismen opgeven voor het aangeven van zoekmachines, welke pagina's van de site kunnen worden geïndexeerd en welke niet.
Als u een van de pagina's van zoekmachines wilt verbergen of openen, lees dan de instructies voor het wijzigen van de zichtbaarheid van de pagina bij uw hosting, bijvoorbeeld met een zoekopdracht "Hoe een pagina te verbergen voor zoekmachines in Wix". Dit helpt u te bepalen welke bestanden beschikbaar kunnen zijn voor het omzeilen van zoekobots met behulp van het bestand Robots.txt.
Het bestand robots.txt bevindt zich in de root van uw site. Voor www.example.com bevindt zich bijvoorbeeld het Robots.txt -bestand op www.example.com/robots.txt. Dit is een normaal tekstbestand dat de standaard uitzonderingsstandaard van de robots uitsluiting volgt.
Het bestand robots.txt bestaat uit een of meer richtlijnen, die elk blokkeert of toegang biedt voor een bepaalde robot tot het opgegeven pad op de site. Standaard zijn alle bestanden op de site toegestaan voor bypass, tenzij anders aangegeven.
Hier is een voorbeeld van een eenvoudig robots.txt -bestand met twee regels:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
Wat betekent dit bestand:
Het maken van een robots.txt -bestand en het testen ervan bestaat uit verschillende fasen:
De regels in het bestand Robots.txt zijn ontworpen om robots op te geven welke delen van uw site kunnen worden omzeild. Hier zijn enkele aanbevelingen voor het schrijven van de regels:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
Na het downloaden van het Robots.txt -bestand naar de site, moet u testen dat het beschikbaar is voor zoekobots. Open hiervoor het Incognito -venster in uw browser en ga naar uw robots.txt, bijvoorbeeld https://example.com/robots.txt. Als u de inhoud van uw bestand ziet, betekent dit dat deze beschikbaar is voor verwerking.
Om problemen met markeringen te testen en te elimineren, kunt u gebruiken:
Nadat het bestand robots.txt is geüpload en getest, zullen Google Robots het automatisch vinden en beginnen te gebruiken. Het is niet nodig om het bestand handmatig te verzenden. Als u het bestand echter hebt bijgewerkt en wilt dat Google het snel in de cache upgrade, kunt u de functie Robots.txt Update gebruiken in de Google Search Console.
Hier zijn enkele nuttige voorbeelden van het bestand robots.txt:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
Als u vragen heeft over het instellen van het robots.txt -bestand of andere SEO -problemen, kunt u contact opnemen met onze SEO -metgezel info@seo.computer of via WhatsApp op nummer +79202044461.
ID: 4