Une page peut être « en ligne » sans être correctement indexée. Les causes les plus fréquentes sur WordPress : sitemap absent ou incohérent, robots.txt trop strict, et confusion entre « bloquer l’exploration » et « bloquer l’indexation ». En Suisse romande, cela se voit souvent sur des sites qui ciblent plusieurs cantons (Vaud, Genève, Fribourg, Valais, Neuchâtel, Jura) avec des pages services locales.
Sources officielles : Google Search Central (Sitemaps), Google (Construire et soumettre un sitemap), Search Console (Rapport Sitemaps), Google (Robots.txt, introduction), Google (Créer un robots.txt), Google (Noindex), WordPress Developer (WP_Sitemaps).
1) Sitemap : le minimum à vérifier sur WordPress
WordPress inclut des sitemaps natifs (depuis WordPress 5.5). Sur beaucoup de sites, le point de départ est simplement : ouvrir /wp-sitemap.xml dans un navigateur. Si le sitemap ne répond pas, l’indexation peut devenir plus lente, surtout pour un blog ou un catalogue WooCommerce.
À noter : des extensions SEO peuvent remplacer ou modifier le sitemap. Dans ce cas, il faut choisir une seule source de vérité (un sitemap « principal ») et éviter les doublons.
2) robots.txt : utile pour guider Googlebot, dangereux si on le sur-utilise
robots.txt sert à contrôler l’exploration (crawl). En revanche, bloquer une URL dans robots.txt ne garantit pas sa disparition des résultats : Google indique qu’une page désautorisée peut tout de même être indexée si elle est liée depuis d’autres sites. Pour retirer une page de l’index, le mécanisme correct est souvent noindex, pas robots.txt.
Autre règle pratique : Google précise qu’un robots.txt doit être placé à la racine du site concerné (ex. https://exemple.ch/robots.txt). Un fichier dans un sous-dossier ne pilote pas le domaine.
Exemple robots.txt « safe » pour WordPress (à adapter)
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
# Optionnel : éviter l'exploration de pages de recherche interne
Disallow: /?s=
# Déclarer le sitemap (Google peut aussi le découvrir ainsi)
Sitemap: https://votre-domaine.ch/wp-sitemap.xml
Attention : ne bloquez pas vos pages « argent » par erreur (services, catégories, fiches produit). Un robots.txt trop agressif peut faire chuter la visibilité, même si le site reste accessible aux visiteurs.
3) Noindex : la bonne méthode quand une page ne doit pas apparaître sur Google
Google documente clairement l’usage du noindex (meta robots) pour empêcher l’indexation d’une page. Point important : si la page est bloquée par robots.txt, Google peut ne pas accéder au contenu, donc ne pas voir le noindex. En pratique, on évite de bloquer par robots.txt une page que l’on veut désindexer proprement.
<meta name="robots" content="noindex">
Cas typiques à passer en noindex sur un site WordPress : pages de recherche interne, pages de test, pages de remerciement sensibles (selon contexte), filtres ou facettes qui créent des centaines d’URLs pauvres.
4) Google Search Console : soumettre le sitemap et lire les erreurs
Search Console propose un rapport « Sitemaps » pour soumettre un sitemap et voir l’historique (succès, erreurs de lecture, URLs découvertes). Une fois le sitemap ajouté, l’analyse devient plus simple : si une section du site (blog, produits, pages services) ne remonte pas, le rapport donne souvent un indice.
- Étape 1 : ouvrir Search Console, sélectionner la propriété du domaine.
- Étape 2 : Indexation → Sitemaps → ajouter
wp-sitemap.xml(ou le sitemap principal). - Étape 3 : corriger les erreurs signalées (URL bloquée, 404, redirections en chaîne, etc.).
5) SEO + GEO : structurer sans dupliquer
Pour se positionner en Suisse romande, le réflexe n’est pas de créer 50 pages quasi identiques par ville. Une structure plus robuste consiste à :
- construire 1 page service forte (ex. « Site WordPress », « Boutique WooCommerce ») ;
- ajouter une section « Zones desservies » qui cite des cantons et quelques villes représentatives : Lausanne, Nyon, Vevey (Vaud), Genève, Carouge (Genève), Fribourg, Bulle (Fribourg), Sion, Martigny (Valais), Neuchâtel, La Chaux-de-Fonds (Neuchâtel), Delémont, Porrentruy (Jura) ;
- compléter avec une FAQ orientée questions réelles (prix, délais, maintenance, e-commerce, SEO local).
Checklist rapide (10 minutes)
- Ouvrir
/wp-sitemap.xmlet vérifier qu’il répond en 200. - Contrôler robots.txt : pas de blocage accidentel sur /, /services/, /boutique/, /product/ ou /categorie/.
- Si une page doit disparaître de Google : utiliser noindex (et ne pas la bloquer par robots.txt).
- Dans Search Console : soumettre le sitemap et traiter les erreurs du rapport.
FAQ Sitemap, robots.txt et indexation (Suisse romande)
Où trouver le sitemap d’un site WordPress ?
Souvent, le sitemap natif WordPress est disponible à l’URL /wp-sitemap.xml. Si une extension SEO est installée, elle peut fournir une autre URL de sitemap, mais l’objectif reste d’en déclarer un principal dans Search Console.
Bloquer une page dans robots.txt la supprime-t-il de Google ?
Non, pas forcément. Google indique qu’une URL peut rester indexée même si elle est bloquée à l’exploration via robots.txt. Pour empêcher l’apparition dans les résultats, noindex est généralement plus adapté.
J’ai un site en préproduction : comment éviter qu’il apparaisse sur Google ?
La méthode la plus sûre consiste à protéger l’accès (authentification) et, en plus, à empêcher l’indexation (noindex). Un simple robots.txt « Disallow: / » est risqué, car une URL peut quand même être découverte et affichée sans contenu.
Pourquoi Search Console affiche des erreurs de sitemap alors que mon site fonctionne ?
Le site peut être accessible aux visiteurs, mais le sitemap contenir des URLs qui redirigent, répondent en 404, ou sont bloquées. Le rapport Sitemaps aide à repérer ce type de problèmes.
Besoin d’une indexation propre (SEO + GEO) sur WordPress ou WooCommerce ?
Pour auditer sitemap, robots.txt, noindex et Search Console, puis structurer des pages services utiles pour tous les cantons romands, contactez clickclick.ch.