Brak jeszcze — dodaj z listy poniżej.

Restauracja, podróże, wynajem…
Organizuj wydatki grupowe z zwinnością arkusza kalkulacyjnego.
Plik robots.txt informuje crawlerów, które części witryny powinni odwiedzić, pominąć lub traktować według specjalnych zasad przed rozpoczęciem pobierania stron.
To narzędzie pozwala wybrać domyślną politykę przeszukiwania, dodać wyraźne ścieżki dozwolone i zablokowane, ustawić opcjonalne opóźnienie przeszukiwania oraz dodać dyrektywy mapy witryn lub hosta bez ręcznego pisania pliku.
Robots.txt to dyrektywa przeszukiwania, a nie system kontroli dostępu, więc wrażliwe treści powinny być nadal chronione uwierzytelnieniem lub innymi ograniczeniami po stronie serwera.
Różni crawlerzy obsługują różne dyrektywy. Na przykład dyrektywa hosta nie jest uniwersalna, a crawl-delay może być ignorowane przez niektóre boty, więc zawsze weryfikuj swoje ostateczne zasady w odniesieniu do crawlerów, które są dla Ciebie ważne.

Mamy dla Ciebie więcej narzędzi...
Wybierz kilka narzędzi i umieść je w pulpicie nawigacyjnym.