SEO

robots.txt WordPress : modèle safe + pièges SEO

17 février 2026 WG 2 min de lecture

À quoi sert vraiment le fichier robots.txt ?

Le robots.txt sert à indiquer aux robots d’exploration quelles parties de votre site ils ne sont pas autorisés à explorer. Il ne s’agit pas d’une méthode pour désindexer une page (pour cela, on utilise la balise noindex), mais plutôt pour gérer le « budget de crawl ».

Pour une explication technique complète, consultez notre guide sur le critère G7 — Fichier robots.txt.

Ce qu’il ne faut JAMAIS bloquer

L’erreur la plus courante est de bloquer l’accès aux fichiers CSS et JavaScript. Google a besoin de « voir » votre page comme un utilisateur la voit pour juger de sa qualité. S’il ne peut pas charger le CSS et le JS, il voit une page « cassée » et peut la pénaliser.

Règle d’or : Ne bloquez jamais les répertoires /wp-content/themes/ et /wp-content/plugins/.

Modèle de robots.txt safe pour WordPress

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://www.votresite.com/sitemap_index.xml

Cas particulier : le e-commerce (WooCommerce)

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /panier/
Disallow: /mon-compte/
Disallow: /commande/

Sitemap: https://www.votresite.com/sitemap_index.xml

Comment tester votre fichier robots.txt ?

La Google Search Console propose un testeur de robots.txt. Pensez aussi à référencer votre Sitemap XML dans le fichier. Pour une compréhension approfondie du SEO technique, téléchargez notre Ebook SEO 2026 gratuit.

W

WG

Expert en développement web et SEO chez Web Generation Agency. Depuis 2007, presque 20 ans d'expérience dans la création de sites web performants et le référencement naturel.

Vous avez un Projet ?

Discutons de votre projet web. Devis gratuit et sans engagement.

Démarrer un Projet WhatsApp