Ninguno aún — añade desde la lista de abajo.

Restaurante, viajes, alquileres…
Organiza gastos grupales con la agilidad de una hoja de cálculo.
Un archivo robots.txt indica a los rastreadores qué partes de un sitio deben visitar, omitir o tratar con reglas especiales antes de comenzar a recuperar páginas.
Esta herramienta te permite elegir una política de rastreo predeterminada, agregar rutas explícitas de permitir y denegar, establecer un retraso de rastreo opcional y agregar directivas de sitemap o host sin escribir el archivo a mano.
Robots.txt es una directiva de rastreo, no un sistema de control de acceso, por lo que el contenido sensible aún debe estar protegido con autenticación u otras restricciones del lado del servidor.
Diferentes rastreadores soportan diferentes directivas. Por ejemplo, la directiva de host no es universal y el retraso de rastreo puede ser ignorado por algunos bots, así que siempre valida tus reglas finales contra los rastreadores que te importan.

Tenemos más utilidades para ti...
Selecciona varias utilidades y colócalas en un panel.