Nog geen — voeg toe vanuit de lijst hieronder.

Restaurant, reizen, verhuur…
Groepsuitgaven organiseren met de snelheid van een spreadsheet.
Een robots.txt-bestand vertelt crawlers welke delen van een site ze moeten bezoeken, overslaan of behandelen met speciale regels voordat ze beginnen met het ophalen van pagina's.
Deze tool stelt je in staat om een standaard crawlbeleid te kiezen, expliciete toestemmings- en verbodspaden toe te voegen, een optionele crawlvertraging in te stellen en sitemap- of hostinstructies toe te voegen zonder het bestand met de hand te schrijven.
Robots.txt is een crawl-instructie, geen toegangssysteem, dus gevoelige inhoud moet nog steeds worden beschermd met authenticatie of andere server-side beperkingen.
Verschillende crawlers ondersteunen verschillende instructies. Bijvoorbeeld, de hostinstructie is niet universeel en crawl-vertraging kan door sommige bots worden genegeerd, dus valideer altijd je uiteindelijke regels tegen de crawlers die je belangrijk vindt.

We hebben meer hulpmiddelen voor je...
Selecteer verschillende hulpmiddelen en zet ze in een dashboard.