Dimension I. · 12 Prüfpunkte
Code-Ebene & Crawling-Logik
- 01robots.txt — Direktiven-Validierung
- 02User-Agent-Whitelist (GPTBot, PerplexityBot, ClaudeBot, Google-Extended)
- 03llms.txt — Existenz, Struktur, Pfadabdeckung
- 04sitemap.xml — Vollständigkeit & lastmod
- 05HTTP-Status-Header & Cache-Direktiven
- 06JavaScript-Rendering-Hürden (CSR vs SSR)
- 07Canonical-Konsistenz auf allen Pfaden
- 08hreflang-Korrektheit (Mehrsprachigkeit)
- 09noindex/nofollow-Audit
- 10Content-Security-Policy & Crawler-Impact
- 11TLS / HTTPS-Erreichbarkeit
- 12HTTP/2 oder HTTP/3 Indikator
