Noch nichts — aus der Liste unten hinzufügen.

Restaurant, Reisen, Vermietungen…
Gruppenausgaben mit der Agilität einer Tabelle organisieren.
Eine robots.txt-Datei sagt Crawlern, welche Teile einer Website sie besuchen, überspringen oder mit speziellen Regeln behandeln sollen, bevor sie mit dem Abrufen von Seiten beginnen.
Dieses Tool ermöglicht es Ihnen, eine Standard-Crawl-Richtlinie auszuwählen, explizite Erlauben- und Verboten-Pfade hinzuzufügen, eine optionale Crawl-Verzögerung festzulegen und Sitemap- oder Host-Direktiven hinzuzufügen, ohne die Datei von Hand zu schreiben.
Robots.txt ist eine Crawl-Richtlinie, kein Zugriffskontrollsystem, daher sollte sensibler Inhalt weiterhin durch Authentifizierung oder andere serverseitige Einschränkungen geschützt werden.
Verschiedene Crawler unterstützen unterschiedliche Direktiven. Zum Beispiel ist die Host-Direktive nicht universell und die Crawl-Verzögerung kann von einigen Bots ignoriert werden, daher sollten Sie Ihre endgültigen Regeln immer gegen die Crawler validieren, die Ihnen wichtig sind.

Wir haben mehr nützliche Funktionen für Sie...
Wählen Sie mehrere Dienstprogramme aus und fügen Sie sie in ein Dashboard ein.