Jika Anda tidak ingin menjelaskan lebih lanjut, hubungi spesialisnya dan dapatkan uji gratis sistem kami!
File robots.txt digunakan untuk mengontrol bagaimana situs Anda diindeks oleh mesin pencari. Ini memungkinkan Anda menentukan halaman atau direktori situs mana yang harus diindeks dan mana yang tidak.
Berikut adalah aturan dasar untuk bekerja dengan file ini:
Di dalam file robots.txt, crawler memeriksa arahan yang dimulai dengan bidang Agen pengguna. Bidang ini menunjukkan robot mesin pencari tertentu yang menerapkan aturan pengindeksan terkait.
Saat mendeskripsikan alamat di situs web, Anda dapat menggunakan simbol universal “*”, yang menunjukkan urutan karakter apa pun. Ini memungkinkan Anda menentukan awalan atau akhiran jalur ke direktori atau halaman.
Berikut beberapa arahan dasar yang dapat digunakan dalam file robots.txt:
Perlu diperhatikan juga bahwa persyaratan file robots.txt mungkin sedikit berbeda tergantung pada mesin pencari. Untuk mengetahui rekomendasi terbaru untuk sistem populer seperti Yandex atau Google, lihat sumber resmi mereka.
Jika Anda memiliki pertanyaan, Anda selalu dapat menghubungi spesialis studio SEO kami dengan menulis ke info@seo.computer.
ID 9119