Journal

go suivant sur le thème du GEO

Le GEO ne consiste pas uniquement à « écrire pour une IA ». L’enjeu réel est double : (1) produire des pages suffisamment claires pour être reprises comme source (citation, résumé, extrait), et (2) garder le contrôle sur ce qui peut être affiché comme extrait dans la recherche. Ce guide se concentre sur le volet technique et éditorial qui augmente vos chances d’être cité, tout en restant cohérent avec le SEO local en Suisse romande.

Exemples de zones servies (à adapter) : Vaud (Yverdon-les-Bains, Vevey), Genève (Carouge, Meyrin), Fribourg (Bulle), Valais (Sierre, Martigny), Neuchâtel (La Chaux-de-Fonds), Jura (Porrentruy).

Sources officielles : Google Search Central (AI features) | Google (meta tags supportés) | Google (robots meta tag) | Google (snippets, nosnippet, max-snippet, data-nosnippet) | Google (robots.txt, limites) | Google (Google-Extended) | OpenAI (ChatGPT search et citations)

1) Rendre vos pages « citables » (le vrai levier GEO)

Une page a plus de chances d’être reprise quand elle contient des éléments faciles à extraire, à vérifier et à attribuer :

  • Une réponse courte dès le début : 2 à 4 phrases qui répondent directement.
  • Des définitions nettes : « GEO », « SEO local », « snippets » avec un vocabulaire stable.
  • Des listes d’étapes : checklists, procédures, critères de choix.
  • Des limites explicites : ce qui dépend du contexte (ex. conformité, fiscalité, cas e-commerce).
  • Des sources solides : liens vers documentation officielle et pages d’autorité.

Astuce WordPress : les blocs (titres, listes, citations, FAQ) aident à découper l’information en « unités » faciles à résumer.

2) Comprendre le contrôle des extraits (snippets) et des AI features

Google indique que, pour limiter ce qui est montré depuis vos pages dans la recherche (y compris dans des expériences IA de la recherche), il faut utiliser des contrôles comme nosnippet, data-nosnippet, max-snippet, ou noindex. Ces contrôles agissent au niveau de la page (ou d’une portion de page pour data-nosnippet).

Contrôles utiles (à utiliser avec parcimonie)

  • nosnippet : empêche l’affichage d’un extrait pour la page.
  • max-snippet : limite la longueur de l’extrait textuel.
  • data-nosnippet : empêche l’utilisation d’une partie précise du contenu dans l’extrait.
  • noindex : empêche l’indexation (donc visibilité très réduite, souvent hors sujet pour GEO).

Exemples (à intégrer dans l’en-tête du site)

<!-- Limiter la longueur de l'extrait (exemple) -->
<meta name="robots" content="max-snippet:120">

<!-- Désactiver complètement les extraits (rarement recommandé) -->
<meta name="robots" content="nosnippet">

<!-- Empêcher l'indexation (à éviter sur une page que vous voulez citer) -->
<meta name="robots" content="noindex">

Exemple data-nosnippet (bloquer une section précise)

<div data-nosnippet>
  <p>Texte interne (ex. notes privées, conditions spécifiques) que vous ne voulez pas voir repris dans un extrait.</p>
</div>

Conseil : évitez d’appliquer ces contrôles sur tout le site par défaut. Le GEO dépend justement de contenus réutilisables et compréhensibles. Un bon usage consiste plutôt à protéger quelques zones spécifiques (ex. encarts internes) et à laisser le contenu principal « citable ».

3) robots.txt : à quoi cela sert (et à quoi cela ne sert pas)

Google rappelle que robots.txt sert à gérer l’exploration (crawl), pas à « retirer une page de Google ». Pour empêcher l’indexation, Google recommande plutôt noindex ou une protection par mot de passe quand c’est pertinent. En GEO, cette nuance compte : si vous bloquez trop, vous réduisez vos chances d’être découvert et cité.

4) Google-Extended : contrôler certains usages IA (hors recherche)

Google documente un jeton robots.txt nommé Google-Extended pour limiter l’utilisation de contenus dans certains systèmes Google liés à l’IA (indépendamment de l’exploration classique pour Google Search). Point important : ce contrôle se fait via robots.txt, mais les requêtes HTTP utilisent les user-agents existants, et le jeton sert de mécanisme de contrôle.

Exemple robots.txt Google-Extended (à adapter)

User-agent: Google-Extended
Disallow: /

Prudence : bloquer Google-Extended n’est pas une « stratégie GEO » en soi. C’est un choix de gouvernance. Avant d’appliquer un blocage large, clarifiez votre objectif (visibilité, contrôle, contenu sensible), puis documentez la décision en interne.

5) GEO pratique : un gabarit d’article qui se fait citer

  • Résumé initial : 40 à 70 mots, réponse directe.
  • Checklist : 8 à 12 points actionnables.
  • Erreurs fréquentes : 4 à 6 erreurs, avec corrections.
  • FAQ : 4 à 6 questions réelles, courtes, sans blabla.
  • Sources : liens officiels (Google, OpenAI, etc.).
  • Mise à jour : date et « ce qui a changé » si vous modifiez l’article.

FAQ GEO : citations, extraits et contrôles

Comment augmenter les chances d’être cité par une recherche IA ?

Structurez la page pour répondre vite, puis prouvez. Une réponse courte, une checklist, des définitions et des sources officielles augmentent la « citabilité ». Les systèmes avec recherche affichent souvent des sources quand la réponse s’appuie sur des pages accessibles.

Est-ce que je dois bloquer les extraits pour protéger mon contenu ?

Pas forcément. Google propose des contrôles (nosnippet, max-snippet, data-nosnippet) pour limiter les extraits, mais sur un site qui veut être cité, bloquer trop largement peut réduire la visibilité. En général, mieux vaut protéger des sections précises plutôt que tout le contenu.

robots.txt suffit-il pour empêcher une page d’apparaitre sur Google ?

Non. Google précise que robots.txt n’est pas un mécanisme pour garder une page hors de l’index. Pour cela, noindex ou une protection d’accès sont plus adaptés.

ChatGPT affiche-t-il des sources ?

Quand la réponse utilise la recherche, ChatGPT affiche des citations et permet d’ouvrir les sources. Cela renforce l’intérêt de publier des pages claires, publiques et bien structurées.

Besoin d’une stratégie GEO concrète sur WordPress (structure, FAQ, sources, contrôle des extraits) ?

Pour construire des pages « sources » utiles, cohérentes pour la Suisse romande, et techniquement propres (snippets, robots, Google-Extended), contactez clickclick.ch.

Partez sur de bonnes bases

Prêt·e à lancer votre prochain site performant ?

Clarifiez votre périmètre, choisissez un forfait et planifiez un appel découverte en moins de 48 h. Nous vous aidons à aligner UX, performance et ressources.

Réponse sous 1 jour ouvré · Workshop de cadrage offert pour les projets complets.