Servizio Robots.txt
Yercekimsiz può servire un robots.txt personalizzato per dominio all'edge, riducendo il carico sull'origine e abilitando policy per crawler per dominio.
Come funziona
Invece di far servire robots.txt dall'origine, il WAF risponde alle richieste /robots.txt usando contenuto con scope di dominio memorizzato nella config. Le richieste vengono loggiate per analytics e diagnostica dei crawler.
Caratteristiche Chiave
- Contenuto robots.txt per dominio
- Servizio edge per ridurre il carico sull'origine
- Logging delle richieste e metriche dei crawler
- API & dashboard per modificare le policy in realtime
Esempio robots.txt
User-agent: *\nDisallow: /api/\nDisallow: /_next/Note
Il servizio robots è puramente read-only dal punto di vista dell'origine — il WAF risponde alle richieste robots per ridurre il traffico sull'origine e fornire logging centralizzato.