Pengenalan Custom Robots.txt Blogger dan Pengaruhnya terhadap SEO (1/2)

blogger robots.txt
Bagi teman yang sudah terbiasa dengan WordPress (org/self hosted) tentunya sudah sangat bersahabat dengan Robots.txt. Dengan robots.txt kita dapat melaksanakan aneka macam macam kostumisasi perintah untuk mengizinkan/tidak mengizinkan robot crawler search engine melaksanakan crawl terhadap direktori atau halaman tertentu. Robots.txt WordPress sebetulnya ialah virtual dan bukan file fisik sebenarnya, sehingga kostumisasi jadi lebih mudah. Tentunya ini menjadi keuntungan tersendiri buat SEO. Dan kini, Blogger telah memiliki fitur yang sama.

Sekitar lebih dari satu bulan yang lalu, Blogger memperkenalkan fitur search preferences, untuk mengatur aneka macam setting optimasi SEO secara on page. Salah satu yang paling penting ialah pengaturan/kostumisasi robots.txt.   Bukan berarti fitur lain dari search preferences tidak penting, namun semuanya sudah dicover dengan hack yang jauh-jauh hari sudah kita lakukan, yaitu dengan penggunaan meta tags, yang fungsinya sama dan hingga ketika ini jauh lebih efektif.

Artikel ini terdiri dari dua bagian:
  1. Pengenalan dan Fungsi Perintah Robots.txt, yang sedang teman baca pada halaman ini, dan
  2. Case Study dan Penggunaan Robots.txt pada Blogger.

Introduction to Robots.txt Functions

Setelah hampir satu bulan mencoba, kini saatnya saya memberikan secuil presentasi mengenai fitur custom robots.txt Blogger ini.

Sebelumnya, bila masih ada dari teman yang masih kurang familiar dengan robots.txt, akan saya berikan gambaran sedikit. Penggunaan robots.txt ialah untuk menunjukkan berita pada robot crawler - baik milik search engine, aggregator, maupun robot-robot pengindeks yang lain - bahwa suatu website, direktori, atau file/halaman web tertentu TIDAK BOLEH diindeks. Sebagai contoh, teman tidak ingin beberapa halaman blog (misal about, sitemap, label, dll) diindeks oleh search engine, maka teman dapat menggunakan perintah \pada robots.txt biar beberapa halaman tersebut tidak diindeks. Maka sebetulnya penggunaan awal dari robots.txt ialah untuk melarang, DISALLOW, gres kemudian pada perkembangannya ada perintah mengijinkan, ALLOW.

Sebelum ada fitur robots.txt, kita menggunakan meta indeks untuk mengatur ini (noindex, nofollow). Namun setelah fitur custom robots.txt blogger diperkenalkan, kita dapat dengan mudah mengontrol pengindeks-an.

Robots.txt pada dasarnya berisi dua baris perintah, yang pertama ialah identitas user agent (crawler, robot perayap), dan kedua ialah perintah pelarangan. 
user-agent: *
Disallow:
Perintah di atas diterjemahkan sebagai berikut: User Agent diisi dengan tanda bintang yang berarti mengacu kepada SEMUA crawler, baik milik search engine maupun yang lain, misalnya: feed agregator (bahkan robot autoblog!). Sedangkan Disallow tidak diisi/kosong berarti semua, baik root direktori, sub direktori, dan file, BOLEH diakses oleh crawler.

Jika ingin melarang crawler mengakses website, maka kita menunjukkan perintah dengan tanda / (slash), yang berarti robot crawler tidak boleh mengakses seluruh isi web/blog.
user-agent: *
Disallow: /
Namun bila ingin melarang indeks pada direktori atau halaman tertentu, kita tuliskan tanda / diikuti dengan nama direktorinya. Contoh misalnya teman tidak ingin crawler mengindeks semua halaman statis maka penulisannya adalah:
user-agent: *
Disallow: /p  (sesuai dengan nama direktori halaman statis Blogger)
Allow: /
Allow: / ditambahkan untuk mengizinkan crawler mengizinkan root directory, direktori lain, dan halaman lain diindeks. Arti dari perintah di atas ialah crawler boleh mengindeks semua kecuali halaman-halaman statis. Sebenarnya Allow: / tidak ditambahkan pun tidak masalah, namun untuk memastikan, Google kemudian memperkenalkan dan merekomendasikan perintah tersebut.

Jika ingin mengacu pada robot crawler milik SE tertentu yang tidak boleh mengindeks, sedangkan yang lain boleh, teman harus menambahkan nama user-agentnya, pada baris lain. Contoh ini akan menggunakan Googlebot, milik Google.
user-agent: *
Disallow: 
user-agent: Googlebot
Disallow: /p
Allow: /
Yup, tentunya sekarang teman mampu dengan mudah mengartikan perintah robots.txt di atas.

Posting ini berlanjut ke bab ke dua yaitu Case Study (Studi Kasus) Robots.txt dan Penggunaannya Pada Blogger. So, go on to part 2. :)

Subscribe to receive free email updates: