SEO tidak perlu belajar coding, namun memahami prinsip crawling dan rendering dapat membantu mengubah JavaScript dari potensi masalah menjadi sekutu yang berharga. Pada artikel ini, kita akan melihat bagaimana Anda dapat mengoptimalkan halaman secara efektif menggunakan JS untuk meningkatkan pengindeksannya oleh mesin pencari.
Kami akan berbicara tentang optimasi teknis. Hampir semua situs web modern menggunakan JavaScript untuk meningkatkan pengalaman pengguna, interaktivitas, menampilkan konten, dan bekerja dengan tombol, menu, dan elemen lainnya. Tujuan kami adalah menyederhanakan proses perayapan laman ini dan menghindari masalah umum yang muncul saat memproses konten yang dibuat menggunakan JavaScript.
Materi ini sebagian didasarkan pada penelitian dan publikasi di bidang optimasi SEO, untuk itu kami mengucapkan terima kasih kepada penulis.
Mesin pencari, termasuk Google, berupaya mengambil konten yang sama dengan yang dilihat pengguna di browser. Google menggunakan Web Rendering Service (WRS), yang bertanggung jawab untuk merender dan meng-crawl halaman web. Layanan ini merupakan bagian dari sistem pengindeksan Kafein. Mari kita lihat cara kerja pemrosesan JavaScript menggunakan contoh sederhana:
Google menerima kode akhir untuk diproses, namun sebenarnya merayapi dan menyimpan semua sumber daya tambahan yang diperlukan untuk merender laman sepenuhnya, seperti file JS, CSS, permintaan XHR, API, dan sumber daya lainnya. Namun, Googlebot mungkin mengabaikan beberapa sumber daya jika sumber daya tersebut tidak penting untuk menampilkan konten.
Googlebot mengirimkan permintaan GET ke server dan menerima header HTTP dan konten halaman sebagai tanggapannya. Jika judul atau tag meta tidak melarang pengindeksan, URL ditambahkan ke antrean untuk ditampilkan. Penting untuk diingat bahwa dalam kondisi pengindeksan yang mengutamakan seluler, permintaan paling sering datang dari agen pengguna seluler Google. Untuk mengetahui robot mana yang meng-crawl situs Anda, Anda dapat menggunakan alat Inspeksi URL di Search Console.
Perlu dicatat bahwa di header HTTP Anda dapat mengonfigurasi aturan khusus untuk berbagai agen pengguna, misalnya, membatasi pengindeksan untuk beberapa robot atau menampilkan konten unik. Contoh pembatasan tersebut diberikan di bawah ini, di mana pengindeksan dilarang untuk Googlebot, namun konten tersedia untuk robot lain.
Jika Anda memiliki pertanyaan tentang optimasi JavaScript atau aspek SEO lainnya, tulislah ke studio SEO "SEO COMPUTER" dengan pertanyaan apa pun di email info@seo.computer.
ID 1713