Jeśli korzystasz z usługi hostingowej dla swojej witryny, na przykład WIX lub Bloggera, być może nie musisz bezpośrednio edytować pliku robots.txt. Zamiast tego dostawca może podać stronę Ustawienia wyszukiwania lub inne mechanizmy wskazywania wyszukiwarek, które strony witryny mogą być indeksowane, a które nie.
Jeśli chcesz ukryć lub otworzyć jedną ze stron z wyszukiwarek, przeczytaj instrukcje dotyczące zmiany widoczności strony w hostingu, na przykład z zapytaniem „jak ukryć stronę przed wyszukiwarkami w Wix”. Pomoże to kontrolować, które pliki mogą być dostępne do ominięcia robotów wyszukiwania za pomocą pliku Robots.txt.
Plik robots.txt znajduje się w głównym miejscu witryny. Na przykład dla www.example.com plik robots.txt zostanie zlokalizowany pod adresem www.example.com/robots.txt. Jest to zwykły plik tekstowy, który jest zgodny ze standardem wyjątku standardowego wykluczenia robotów.
Plik robots.txt składa się z jednej lub więcej dyrektyw, z których każda blokuje lub umożliwia dostęp do konkretnego robota do określonej ścieżki na stronie. Domyślnie wszystkie pliki w Witrynie są dozwolone dla obejścia, chyba że określono inaczej.
Oto przykład prostego pliku robots.txt z dwoma regułami:
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
Co oznacza ten plik:
Tworzenie pliku robots.txt i jego testowanie składa się z kilku etapów:
Reguły w pliku robots.txt są zaprojektowane w celu określenia robotów, które części witryny można ominąć. Oto kilka zaleceń dotyczących pisania zasad:
User-agent: Googlebot Disallow: /private/ User-agent: * Allow: /
Po pobraniu pliku Robots.txt na stronę, należy sprawdzić, czy jest on dostępny dla robotów wyszukiwania. Aby to zrobić, otwórz okno Incognito w przeglądarce i przejdź do swoich Robots.txt, na przykład https://example.com/robots.txt. Jeśli zobaczysz zawartość pliku, oznacza to, że jest on dostępny do przetwarzania.
Aby przetestować i wyeliminować problemy z oznaczeniami, możesz użyć:
Po przesłaniu i przetestowaniu pliku robots.txt, Google Robots automatycznie go znajdzie i zaczną go używać. Nie ma potrzeby ręcznego wysyłania pliku. Jeśli jednak zaktualizowałeś plik i chcesz, aby Google szybko zaktualizował go w pamięci podręcznej, możesz użyć funkcji aktualizacji Robots.txt w konsoli wyszukiwania Google.
Oto kilka przydatnych przykładów pliku Robots.txt:
User-agent: * Disallow: /
User-agent: * Disallow: /private/
User-agent: Googlebot Allow: / User-agent: * Disallow: /
Jeśli masz pytania dotyczące konfigurowania pliku robots.txt lub innych problemów SEO, możesz skontaktować się z naszym towarzyszem SEO info@seo.computer lub przez WhatsApp według numeru +79202044461.
ID: 4