Service Robots.txt
Yercekimsiz peut servir un fichier robots.txt personnalisé par domaine à la périphérie, réduisant la charge de l'origine et permettant des politiques de robot d'exploration par domaine.
Comment ça marche
Au lieu que l'origine serve robots.txt, le WAF répond aux requêtes /robots.txt en utilisant un contenu spécifique au domaine stocké dans la configuration. Les requêtes sont journalisées pour l'analyse et le diagnostic des robots d'exploration.
Caractéristiques principales
- Contenu robots.txt par domaine
- Service en périphérie pour réduire la charge de l'origine
- Journalisation des requêtes et métriques des robots d'exploration
- API et tableau de bord pour modifier les politiques en temps réel
Exemple de robots.txt
User-agent: *
Disallow: /api/
Disallow: /_next/Remarques
Le service de robots est purement en lecture seule du point de vue de l'origine - le WAF répond aux requêtes de robots pour réduire le trafic de l'origine et fournir une journalisation centralisée.