Belum ada — tambahkan dari daftar di bawah.

Restoran, perjalanan, sewa…
Atur pengeluaran grup dengan kelincahan spreadsheet.
File robots.txt memberi tahu crawler bagian mana dari situs yang harus mereka kunjungi, lewati, atau perlakukan dengan aturan khusus sebelum mereka mulai mengambil halaman.
Alat ini memungkinkan Anda memilih kebijakan crawl default, menambahkan jalur yang diizinkan dan dilarang secara eksplisit, mengatur jeda crawl opsional, dan menambahkan direktif sitemap atau host tanpa menulis file secara manual.
Robots.txt adalah direktif crawl, bukan sistem kontrol akses, jadi konten sensitif harus tetap dilindungi dengan otentikasi atau pembatasan sisi server lainnya.
Crawler yang berbeda mendukung direktif yang berbeda. Misalnya, direktif host tidak universal dan crawl-delay mungkin diabaikan oleh beberapa bot, jadi selalu validasi aturan akhir Anda terhadap crawler yang Anda pedulikan.

Kami memiliki lebih banyak utilitas untuk Anda...
Pilih beberapa utilitas dan masukkan ke dalam dasbor.