Robots.txt-Bereitstellung
Yercekimsiz kann eine benutzerdefinierte robots.txt pro Domäne am Edge bereitstellen, um die Origin-Last zu reduzieren und domänenspezifische Crawler-Richtlinien zu ermöglichen.
Wie es funktioniert
Anstatt dass der Origin robots.txt bereitstellt, antwortet die WAF auf /robots.txt-Anfragen mit domänenspezifischem Inhalt, der in der Konfiguration gespeichert ist. Anfragen werden für Analysen und Crawler-Diagnosen protokolliert.
Hauptmerkmale
- Inhalt von robots.txt pro Domäne
- Edge-Bereitstellung zur Reduzierung der Origin-Last
- Anforderungsprotokollierung und Crawler-Metriken
- API und Dashboard zum Bearbeiten von Richtlinien in Echtzeit
Beispiel robots.txt
User-agent: *
Disallow: /api/
Disallow: /_next/Anmerkungen
Die Robots-Bereitstellung ist aus Sicht des Origins rein schreibgeschützt - die WAF beantwortet Robots-Anfragen, um den Origin-Verkehr zu reduzieren und eine zentralisierte Protokollierung bereitzustellen.