Robot.txt default punya Blogger sebenarnya tidak SEO friendly, karena ia mengijinkan search engine untuk mengindeks seluruh page blog kita, termasuk search page, juga mengijinkan mengindeks label artikel dan arsip bulanan. Ini tentu saja kurang bagus dari sisi SEO dan bisa menurunkan rangking blog kita di mata search engine. Untuk mengatasi masalah itu kali ini saya sharing cara membuat robot.txt yang SEO friendly untuk Blogger.
Robot.txt yang SEO friendly untuk Blogger
Untuk mengatasi masalah ini Anda bisa menggunakan robot.txt untuk Blogger yang SEO friendly, sehingga bisa memberitahu seluruh bot agar tidak mengindeks arsip blog, label, dan halaman navigasi. Robot.txt berikut ini lebih SEO friendly karena bisa menghilangkan error yang sering dilaporkan di dalam Webmaster Tools. Kelebihannya diantaranya:
- menghilangkan duplicate meta description error
- menghilangkan duplicate title error
- mencegah semua bot agar tidak mengindeks hasil pencarian dan label posting
Cara membuat robot.txt yang SEO friendly untuk Blogger
Cara memasang robot.txt yang SEO friendly untuk Blogger caranya begini:
- Masuk ke Dasboard Blogger Anda >Setting, lalu klik Search Preferences
- Di bagian Crawler and Indexing, klikEdit di depan Custom robots.txt
- Klik Yes lalu kopikan kode robot.txt berikut ini, lalu klik Save Changes
User-agent: * Disallow: /search Disallow: /*_archive.html Disallow: /cgi-bin/ Allow: / Sitemap: http://alamatblogAnda/atom.xml?redirect=false&start-index=1&max-results=500
Jangan lupa mengganti ‘alamatblogAnda’ dengan alamat blog Anda yang benar, misalnyainilahcaranya.com (tanpa tanda petik)
Nah, sekarang kita sudah menggunakan robot.txt yang SEO friendly untuk Blogger.
Selamat mencoba.

0 comments:
Post a Comment