
Éric Demaret, Head of SEO & GEO, Origine by Orixa
Eric Demaret pilote les activités SEO et GEO d’Origine by Orixa. À l’avant-garde de l’omnisearch, il accompagne les marques dans l’évolution de leur visibilité, des moteurs traditionnels aux plateformes sociales, jusqu’aux LLM. Son approche, ancrée dans les mutations structurelles du marché, vise à pérenniser l’influence des marques là où se redéfinissent désormais les parcours de recherche.
Quand on pense GEO, on se focalise généralement sur « suis-je cité par ChatGPT, Gemini ou Perplexity ? ». Pourquoi c’est une lecture restrictive et pourquoi le choix du modèle change lui aussi les paramètres de visibilité ?
C’est restrictif parce qu’on confond souvent une interface (un moteur IA) avec un modèle (GPT-4.1, GPT-5.4…). Dire « je suis visible sur ChatGPT » ne suffit pas : selon la requête, le contexte, la fraîcheur des sources, l’activation de la recherche web ou non, et surtout le modèle utilisé, la réponse peut fortement changer.
Il faut aussi distinguer les modèles fast, conçus pour répondre rapidement, des modèles thinking, davantage orientés vers le raisonnement. Ces derniers peuvent explorer plus d’angles, mobiliser davantage de sources ou faire émerger une source de niche pertinente, là où un modèle fast produira parfois une réponse plus directe et plus resserrée. Le choix du modèle peut donc modifier les marques citées, leur hiérarchie et le nombre d’acteurs mentionnés.
Le GEO doit donc mesurer la visibilité à un niveau plus fin : moteur, modèle, type de requête, intention, formulation, persona… C’est précisément ce que nous observons avec Brand Score AI, notre outil maison : la visibilité dans les LLM n’est pas un état binaire, mais une cartographie mouvante.
Les écarts de citation entre modèles sont-ils vraiment si importants ? Sur quels LLM est-ce le plus criant ?
Oui, les écarts peuvent être très significatifs. Une marque peut être très bien citée par un modèle et beaucoup moins sur un autre, pour une même famille de requêtes.
Nous l’avons constaté chez plusieurs clients. Dans le secteur bancaire, par exemple, nous avons comparé banques traditionnelles, néobanques, organismes de crédit et comparateurs sur différents modèles au sein de ChatGPT. Les résultats montrent que les courbes de visibilité peuvent s’inverser selon le modèle utilisé.
Certains acteurs peu visibles sur un modèle fast peuvent fortement progresser sur un modèle plus avancé ou thinking, et inversement. Nous observons aussi que certains modèles citent un panel très restreint d’acteurs, tandis que d’autres élargissent davantage la réponse en mentionnant plus de marques, de catégories d’acteurs ou d’alternatives.
Comment expliquez-vous ces écarts entre modèles d’une même famille ?
Deux modèles d’une même famille peuvent avoir des comportements très différents.
D’abord, parce qu’ils ne reposent pas nécessairement sur les mêmes jeux d’entraînement, les mêmes mécanismes de pondération ou les mêmes consignes de réponse : niveau de prudence, propension à recommander une marque, à citer des sources ou à élargir le périmètre de la réponse.
Ensuite, parce que certains modèles sont meilleurs en raisonnement, d’autres en synthèse, d’autres encore en récupération d’informations récentes.
Nous avons observé, par exemple, que des modèles fast peuvent produire des réponses très proches du prompt initial, en citant uniquement la typologie d’acteurs explicitement demandée. À l’inverse, des modèles thinking peuvent élargir l’analyse, intégrer d’autres catégories d’acteurs et fournir une réponse plus complète, rebattant les cartes de la visibilité GEO.
L’émergence des modèles hébergés en local va-t-elle encore augmenter ces disparités de visibilité ?
Oui, probablement. Les modèles hébergés en local ou dans des environnements privés vont fragmenter encore davantage la visibilité. Deux entreprises peuvent utiliser un même modèle de base, mais obtenir des réponses très différentes si elles l’ont connecté à des données, documents ou règles métier spécifiques.
Pour les marques, cela signifie que la visibilité IA ne se joue plus seulement dans les grands modèles publics, mais aussi dans les écosystèmes privés : bases fournisseurs, contenus partenaires, documentation produit, données structurées et sources de référence sectorielles.
Une marque pourra donc être visible dans un modèle public, mais absente d’un assistant IA interne, si elle n’est pas présente dans les sources utilisées par cet environnement.
Comment auditer sa présence de façon fiable sur plusieurs moteurs et plusieurs modèles ? Quels outils et KPI recommandez-vous ?
Un audit fiable doit couvrir plusieurs dimensions : moteurs, modèles, intentions de recherche, formulations simples ou complexes, personas ciblés, concurrents… Il faut aussi répéter les tests régulièrement, car les réponses peuvent considérablement varier d’une session à l’autre.
Chez Origine, nous effectuons ces tests avec Brand Score AI, notre outil propriétaire dédié au suivi de la visibilité dans les LLM. Il permet de monitorer les marques sur des modèles précis, et d’analyser plusieurs modèles au sein d’une même IA en fonction des besoins et des typologies de prompts.
L’objectif est de mesurer la citation, mais aussi le contexte de mention, les concurrents associés, les sentiments, les sources utilisées et la stabilité de la mention dans le temps.
Les modèles changent très vite, comment les annonceurs doivent se positionner pour essayer de rester visibles dans cet environnement très mouvant ?
Il n’y a pas de recette figée pour être plus visible sur un modèle qu’un autre, bien que certains aient des spécificités. Les réponses sont recomposées en permanence.
La priorité est d’abord de permettre l’accès aux robots IA lorsque c’est pertinent, puis de renforcer les signaux fondamentaux déjà connus en SEO : contenus experts, données structurées, autorité, popularité et cohérence sémantique.
Il est aussi essentiel de développer sa visibilité et sa notoriété en dehors de son propre site. C’est-à-dire obtenir des citations sur des médias d’autorité sourcés par les IA, que nous connaissons grâce aux audits GEO. Et travailler la synergie entre le GEO et les relations presse, en identifiant les champs sémantiques à rebooster pour augmenter les mentions au sein de sites spécialisés, ou médias d’autorité.
Enfin, il faut raisonner omnisearch : Google, YouTube, Reddit, LinkedIn, médias, marketplaces et comparateurs, forums et LLM sont désormais connectés dans les nouveaux parcours de recherche. La visibilité doit se construire sur l’ensemble de ces points de contact.
À l’inverse, quelles sont les fausses bonnes pratiques du GEO qui font perdre du temps aux marques ?
Plusieurs erreurs sont à éviter. La première consiste à croire qu’il existe un raccourci technique unique : une page « optimisée IA », un fichier dédié aux LLM ou quelques balises ajoutées au site ne suffiront pas à booster durablement la visibilité d’une marque. Les LLM s’appuient sur un ensemble de signaux beaucoup plus large : autorité, notoriété, qualité des sources, cohérence sémantique et mentions externes.
La deuxième est de produire du contenu générique en masse. Les modèles n’ont pas besoin d’un énième contenu redondant : ils ont besoin de signaux fiables, différenciants, sourcés et corroborés par des sites de qualité.
La troisième est de tester quelques prompts à la main pour savoir si l’on est cité, puis d’en tirer de grandes conclusions. Un seul prompt, sur un seul modèle, à un instant donné, c’est trop fragile pour piloter une stratégie.
Il faut du volume pour réduire les marges d’erreur, une collecte régulière pour mesurer la stabilité des mentions, et une lecture marché pour comprendre sa visibilité relative.
On ne peut pas « forcer » un modèle à citer une marque, surtout si le prompt est restrictif ou si le modèle est très littéral. En revanche, on peut élargir les signaux envoyés aux IA (contenus comparatifs, pages d’usage, mentions tierces…) pour les aider à mieux comprendre dans quels contextes la marque est pertinente.
En GEO, on ne gagne pas en parlant plus fort, mais en devenant plus évident à recommander.
