Accueil
Outils SEO

robots.txt & sitemap.xml

Générez un robots.txt et un sitemap.xml optimisés SEO en quelques clics. Configurez, prévisualisez et téléchargez.

robots.txt sitemap.xml Téléchargement direct
Configuration
Sélectionnez plusieurs pour des règles par bot
Un chemin par ligne
robots.txt
Cliquez sur « Générer » pour voir le résultat…
Bonnes pratiques
  • Placez robots.txt à la racine : example.com/robots.txt
  • Incluez l'URL absolue de votre sitemap
  • robots.txt n'est pas un mécanisme de sécurité — les robots malveillants l'ignorent
  • Bloquer GPTBot et CCBot empêche l'indexation par les IA
Configuration
Chemin Freq. Priorité
Laissez vide pour la date d'aujourd'hui
sitemap.xml
Cliquez sur « Générer » pour voir le résultat…
Bonnes pratiques
  • Soumettez votre sitemap dans Google Search Console
  • Référencez-le dans robots.txt via Sitemap:
  • Max 50 000 URLs ou 50 Mo par fichier sitemap
  • N'incluez que les pages canoniques — pas les doublons

robots.txt vs sitemap.xml

robots.txt

Indique aux robots quelles pages crawler ou ignorer. Utile pour bloquer les zones d'administration, les pages dupliquées ou les ressources inutiles.

sitemap.xml

Liste toutes les pages importantes de votre site pour aider les moteurs à les découvrir. Inclut l'URL, la date de modification et la priorité.

Impact SEO

Un sitemap bien structuré accélère l'indexation des nouvelles pages. robots.txt évite le gaspillage du budget de crawl sur des pages sans valeur SEO.

Bloquer les IA

Bloquez GPTBot (OpenAI), CCBot (Common Crawl), anthropic-ai et Google-Extended pour empêcher l'utilisation de votre contenu pour entraîner des modèles IA.

FAQ

Oui, si vous bloquez accidentellement des pages importantes. Une directive Disallow:/ bloque tout votre site. Vérifiez toujours avec Google Search Console après modification.
priority (0.0 à 1.0) indique l'importance relative d'une page sur votre site. changefreq est la fréquence estimée de changement. Google utilise ces valeurs comme indications, pas comme obligations.
Non. N'incluez que les pages canoniques avec du contenu de valeur. Excluez les pages de pagination, les pages de tags, les doublons et les pages bloquées par robots.txt.