まだありません — 下のリストから追加してください。

レストラン、旅行、レンタル…
スプレッドシートの機敏さでグループ費用を整理します。
Robots.txtファイルは、クローラーにサイトのどの部分を訪問、スキップ、または特別なルールで扱うべきかを指示します。
このツールを使用すると、デフォルトのクロールポリシーを選択し、明示的な許可および拒否パスを追加し、オプションのクロール遅延を設定し、手動でファイルを書くことなくサイトマップやホスト指示を追加できます。
Robots.txtはクロール指示であり、アクセス制御システムではないため、機密コンテンツは依然として認証や他のサーバー側の制限で保護する必要があります。
異なるクローラーは異なる指示をサポートします。たとえば、ホスト指示は普遍的ではなく、クロール遅延は一部のボットによって無視される可能性があるため、常に気にかけるクローラーに対して最終的なルールを検証してください。

あなたのためにもっと便利な機能があります...
複数のユーティリティを選択してダッシュボードに配置します。