Google ouvre une porte. Et en ferme sept.

March 22, 2026
par
Tristan

Google annonce un opt-out des résultats IA. Dans la même semaine, il étend le commerce agentique sur sept fronts. Une porte s'ouvre. Sept se ferment.

Semaine du 16 au 22 mars 2026 — Google annonce un opt-out des résultats IA pour les éditeurs. Dans la même semaine, il étend le commerce agentique, personnalise les résultats IA, réécrit vos titres et transforme AI Mode en moteur publicitaire. Une concession. Sept verrouillages.

Google commence-t-il à lâcher du lest face aux éditeurs ?

En apparence, oui. En réponse aux propositions réglementaires de la CMA britannique, Google a annoncé qu'il développe une option permettant aux éditeurs d'exclure leur contenu des fonctionnalités d'IA générative dans Search. C'est la première concession officielle de Google sur le sujet de l'intermédiation IA. Mais dans la même semaine, Google a étendu son Universal Commerce Protocol (panier, catalogue, identity linking), déployé Personal Intelligence pour tous les utilisateurs US, commencé à réécrire les titres d'articles par IA dans les résultats, et structuré AI Mode comme son prochain moteur publicitaire. Une porte s'ouvre. Sept se ferment.

L'opt-out : ce que Google concède réellement

Google a publié une réponse officielle aux propositions réglementaires de la CMA (Competition and Markets Authority), le régulateur britannique de la concurrence. Parmi les annonces : un futur contrôle permettant aux éditeurs web d'exclure leurs contenus des fonctionnalités d'IA générative dans Search.

Qu'est-ce qu'un opt-out des résultats IA ?

Un opt-out, c'est un mécanisme technique qui permet à un éditeur de site web de dire à Google : « ne pas utiliser mon contenu pour générer des réponses IA ». Aujourd'hui, quand Google affiche un AI Overview ou une réponse dans AI Mode, il puise dans le contenu de votre site — vos textes, vos données, vos analyses — pour construire sa réponse. Votre contenu est extrait, reformulé et affiché dans l'interface Google, souvent sans que l'utilisateur ait besoin de cliquer vers votre site.

Concrètement, un opt-out fonctionnerait probablement via une balise technique (comme une directive dans le robots.txt ou une meta-tag dans le HTML de vos pages) qui signale aux systèmes IA de Google : « ce contenu n'est pas disponible pour la génération de réponses IA ». C'est le même principe que le noindex qui empêche Google d'indexer une page — sauf qu'ici, il s'agirait d'empêcher l'utilisation du contenu par l'IA générative, pas par le moteur de recherche classique.

Le problème : Google n'a pas précisé si l'opt-out IA serait découplé de l'indexation classique. Si exclure votre contenu de l'IA signifie aussi disparaître des résultats organiques traditionnels, le choix est entre être cannibalisé par l'IA ou être invisible. Ce n'est pas un choix — c'est un piège.

C'est un signal fort. Pour la première fois, Google reconnaît que les éditeurs devraient pouvoir décider si leur contenu alimente — ou non — les réponses IA.

Mais il y a trois nuances importantes. D'abord, c'est une annonce de développement, pas un déploiement. Aucune date, aucun format, aucun périmètre technique n'ont été communiqués. Ensuite, un opt-out sans alternative est un faux choix. Si exclure son contenu des résultats IA signifie aussi perdre en visibilité organique, la plupart des éditeurs n'utiliseront jamais cette option. Enfin, Google répond à une pression réglementaire britannique spécifique. Rien ne garantit que cet opt-out sera disponible en France ou dans d'autres marchés.

🚨 L'opt-out est un faux choix

Le dilemme

Exclure votre contenu des résultats IA pourrait aussi signifier perdre en visibilité organique classique. Google ne précise pas si les deux seront découplés.

Le timing

Aucune date de déploiement. C'est une annonce de développement en réponse à un régulateur britannique — pas un engagement produit.

Le périmètre

Rien ne garantit que cet opt-out sera disponible en France ou dans d'autres marchés. L'opt-out est une concession politique, pas une concession technique.

Le Universal Commerce Protocol s'étend : panier, catalogue, identity linking

Dans la même semaine, Google a annoncé de nouvelles fonctionnalités pour son Universal Commerce Protocol — le standard ouvert qui permet aux agents IA d'exécuter des achats directement dans Gemini et AI Search.

Les ajouts : gestion de panier unifié (les agents IA peuvent ajouter et modifier des articles), accès au catalogue produit (les agents peuvent parcourir votre inventaire), support de l'identity linking (liaison entre le compte utilisateur et le compte marchand), et onboarding Merchant Center simplifié.

Ce n'est plus un protocole théorique. C'est une infrastructure de checkout opérationnelle. Google confirme que dans le commerce piloté par agents IA, ce sont les données produits — pas seulement les publicités — qui détermineront la visibilité et les ventes.

La semaine dernière, nous écrivions dans notre analyse sur les murs qui se dressent face à l'intermédiation que le checkout IA « patine encore ». C'est toujours vrai côté utilisateurs — mais côté infrastructure, Google construit les rails à grande vitesse.

Ce que le UCP change concrètement : un agent IA pourra bientôt parcourir votre catalogue, ajouter des produits au panier, et relier le compte client à la commande — sans qu'un humain visite jamais votre site. Si vos données produits ne sont pas dans Merchant Center avec un feed propre, vous n'existez pas pour les agents.

Le checkout IA ne convertit pas — mais les marques pivotent

Et justement, les données de cette semaine confirment que le checkout IA ne fonctionne pas encore. L'Instant Checkout de Walmart dans ChatGPT a converti trois fois moins bien que les liens classiques de click-out. Walmart a abandonné ce format.

Mais Walmart ne renonce pas au commerce agentique. Il pivote vers « Sparky », son propre agent IA, prévu pour ChatGPT et Gemini. C'est exactement le même pattern qu'Amazon — qui a bloqué judiciairement l'agent Perplexity tout en construisant Rufus, son propre assistant shopping IA.

Le message est clair : les grandes marques ne font pas confiance à l'infrastructure de checkout des LLM. Elles construisent leurs propres agents. Le commerce agentique passera — mais il passera par des agents propriétaires, pas par des boutons « acheter » génériques dans ChatGPT.

👉 Pourquoi les marques construisent-elles leurs propres agents IA ?

Parce que le checkout générique ne convertit pas. Walmart a mesuré un taux 3× inférieur à un simple lien. La raison : le contexte est perdu. Un agent générique ne connaît ni votre politique de retour, ni vos stocks, ni vos promotions. Un agent propriétaire (Sparky chez Walmart, Rufus chez Amazon) le sait. Le commerce agentique passera — mais par des agents qui connaissent la marque, pas par des boutons génériques.

Données sur 260 millions de résultats ChatGPT Shopping : 79 % des prompts ne déclenchent jamais le shopping — pas rarement, jamais, sur 9 mois de données. Les 6 % qui déclenchent de manière fiable ont 83 % de chances de redéclencher le lendemain. Mais cette persistance décroît, et les mises à jour de modèle peuvent la réinitialiser du jour au lendemain. Le shopping IA n'est pas un canal stable — c'est un canal binaire et volatil.

Google réécrit vos titres par IA

Autre front d'expansion cette semaine : Google a confirmé qu'il teste la réécriture de titres d'articles par IA directement dans les résultats de recherche. Le ton et l'intention sont modifiés pour mieux correspondre aux requêtes et maximiser l'engagement.

Ce n'est pas nouveau que Google ajuste les titles dans les SERPs — il le fait depuis des années en piochant dans le contenu de la page. Ce qui est nouveau, c'est l'utilisation de l'IA générative pour réécrire le titre, pas simplement le remplacer par un extrait existant.

L'intermédiation ne se limite plus au contenu. Elle atteint l'éditorial. Votre titre soigneusement optimisé — celui sur lequel vous avez passé du temps à calibrer le CTR — peut être remplacé par une version IA que vous ne contrôlez pas.

Conséquence directe : le titre dans votre <title> tag n'est plus nécessairement le titre que l'utilisateur voit dans les résultats. Votre CTR dépend d'un titre que vous n'avez pas écrit. Pour limiter les risques : assurez-vous que votre H1, votre title et votre meta description racontent la même histoire — l'IA de réécriture aura moins de raisons de « corriger » un titre cohérent.

Personal Intelligence : la fin du résultat universel

Google a déployé Personal Intelligence pour tous les utilisateurs US dans AI Mode, l'app Gemini, et Gemini in Chrome. Le système personnalise les réponses IA en fonction de l'historique de recherche, des préférences et du contexte de chaque utilisateur.

Concrètement : deux utilisateurs posant la même requête verront des réponses différentes. Le résultat universel — celui que vous pouviez vérifier, optimiser et tracker — disparaît.

🚨 Ce que ça casse dans votre workflow SEO

Le tracking classique

Vous ne pouvez plus vérifier « est-ce que mon site apparaît dans la réponse IA pour cette requête » — parce que la réponse dépend de qui pose la question.

Le benchmarking concurrentiel

Impossible de comparer votre visibilité IA à celle d'un concurrent — les résultats diffèrent d'un utilisateur à l'autre.

Le SRO (Selection Rate Optimization)

Le taux de sélection de votre contenu par les LLM n'est plus une métrique statique. Il dépend du profil de l'utilisateur, pas seulement de la requête.

AI Mode est le prochain moteur publicitaire de Google

En parallèle, AI Mode est en train de devenir le prochain moteur publicitaire de Google. Les formats, le reporting et les contrôles prennent forme. Google joue un jeu long que les concurrents ne peuvent pas suivre — parce qu'il a les données, les annonceurs et l'infrastructure.

Combiné avec le lancement du ChatGPT Ads Manager par OpenAI (annoncé la même semaine), l'AI search est en train de devenir un canal publicitaire structuré. Ce n'est plus du test. C'est de l'infrastructure.

Deux moteurs publicitaires IA en une semaine : Google structure les formats et le reporting pour AI Mode. OpenAI lance un Ads Manager complet pour ChatGPT. La monétisation de l'AI search ne fait plus débat — elle est en cours de construction des deux côtés. Pour les annonceurs, un nouveau poste budgétaire est en train de naître. Pour les éditeurs, le contenu organique dans les réponses IA va cohabiter avec des publicités natives.

Les 7 portes qui se ferment

Semaine du 16 au 22 mars 2026 — ce que Google ferme
Ce que Google ferme Ce que ça signifie
UCP étendu (panier, catalogue, identity linking) Le checkout IA devient opérationnel. Vos produits seront achetés sans que l'utilisateur visite votre site
Personal Intelligence déployé pour tous les US Le résultat universel disparaît. Impossible de vérifier votre visibilité IA de manière statique
Réécriture de titres par IA Votre title tag n'est plus le titre que l'utilisateur voit. Google intermédiaire l'éditorial
AI Overviews au-dessus des Top Stories L'intermédiation atteint le breaking news. Les publishers perdent leur position historique
AI Mode = moteur publicitaire L'AI search devient un canal SEA. Budget pub à répartir entre Google Ads classique et AI Mode ads
AIO sur 14 % des requêtes shopping Le e-commerce n'est plus « safe ». Les AI Overviews gagnent le commerce
Bots > humains en 2027 Le trafic web se transforme. La question robots.txt devient stratégique

Et la porte qui s'ouvre :

La concession
Ce que Google ouvre Ce que ça signifie
Opt-out des résultats IA (annonce, pas déploiement) Première concession aux éditeurs — mais sans date, sans périmètre, et potentiellement un faux choix si opt-out = invisibilité

Vous n'avez pas besoin d'un acronyme de plus

Cette semaine, un nouvel acronyme a fait son apparition : l'AAIO — « Agentic AI Optimization ». Après le AEO (Answer Engine Optimization), le GEO (Generative Engine Optimization), et le SRO (Selection Rate Optimization), l'industrie continue d'empiler les termes.

Le problème n'est pas les acronymes. C'est ce qu'ils masquent. Le SEO a toujours été une discipline qui parle aux machines. Le <title> tag, le robots.txt, le sitemap.xml, le schema.org — tout ça existe depuis 15-20 ans pour une seule raison : structurer l'information pour qu'un robot la comprenne mieux. Le netlinking manipulé, les PBN, le keyword stuffing — c'étaient déjà des tentatives de « parler aux machines » en exploitant leurs failles.

Ce qui change, ce n'est pas la discipline. C'est la machine en face. Avant, on parlait à un crawler qui indexe des pages. Maintenant, on parle à un LLM qui extrait des passages, un agent qui exécute des transactions, et un système de fan-out qui décompose les requêtes en sous-requêtes. Trois machines différentes avec trois logiques différentes. Mais le principe reste le même : comprendre comment la machine fonctionne, et structurer son contenu en conséquence.

Un site qui avait des données structurées propres, un contenu dense et pertinent, et un tunnel de conversion solide en 2024 est le même site qui performe face aux LLM et aux agents en 2026. L'inflation d'acronymes sert surtout à vendre des prestations qui semblent nouvelles et à justifier des budgets d'outils. C'est le même cycle que « growth hacking » en 2015 — du marketing renommé pour créer un sentiment d'urgence.

🚨 Le vrai signal de cette semaine

Ce qui change

La machine en face. Un crawler qui indexe des pages. Un LLM qui extrait des passages. Un agent qui exécute des transactions. Un système de fan-out qui décompose les requêtes.

Ce qui ne change pas

Le principe. Comprendre comment la machine fonctionne. Structurer son contenu en conséquence. Construire un tunnel de conversion que la machine ne peut pas court-circuiter.

Ce dont vous n'avez pas besoin

D'un acronyme de plus. Le SEO qui marchait avant (structure, données, pertinence, autorité) est le même qui marche face aux LLM et aux agents.

Données de la semaine : le fan-out sous le microscope

L'analyse la plus complète à ce jour sur les requêtes fan-out vient de sortir — ces sous-requêtes que les LLM génèrent pour chercher de l'information. L'étude porte sur 365 000 requêtes, réparties entre Google (158K), OpenAI (207K) et Amazon (560).

Le constat principal : les requêtes fan-out d'OpenAI sont significativement plus longues que celles de Google. 75,8 % des sous-requêtes OpenAI contiennent 7 mots ou plus, contre 64,9 % pour Google. Amazon est encore plus spécifique : 83,6 % de ses requêtes fan-out dépassent 7 mots.

Ce que ça implique : les LLM ne cherchent pas des pages. Ils cherchent des réponses à des questions très précises. Un contenu structuré en blocs auto-suffisants — chaque paragraphe capable de répondre à une sous-requête spécifique — a plus de chances d'être sélectionné qu'un article monolithique de 3 000 mots. C'est la confirmation empirique que la sélection se fait au niveau du passage, pas de la page. (Nous avions documenté ce mécanisme dans notre analyse sur l'intermédiation IA mesurable.)

Fan-out en bref : ce que les chiffres disent

Sur 365 000 sous-requêtes analysées, les LLM génèrent majoritairement des requêtes longues (7+ mots) — 75,8 % chez OpenAI, 64,9 % chez Google, 83,6 % chez Amazon. Si votre contenu ne répond qu'à des requêtes courtes et génériques, il passe sous le radar du fan-out. Structurez chaque bloc de contenu comme une réponse autonome à une question spécifique de 7+ mots.

La catégorie bat l'intention d'achat : sur 1,18 million de prompts analysés, nommer un produit physique (vêtements, électronique, alimentaire) multiplie par 2 à 6 les chances de déclencher le shopping dans ChatGPT. Dire « je veux acheter » sans nommer de produit ne change presque rien. La règle est simple : si le nom principal du prompt décrit quelque chose qu'on trouverait sur Amazon, le shopping se déclenche. Sinon, non — même avec un langage commercial fort. Un classifieur construit sur cette logique reproduit le comportement de ChatGPT avec 95-97 % de précision.

Notre lecture chez Refmax

La semaine 9, les données ont prouvé que l'intermédiation IA est mesurable. La semaine 10, les murs se sont dressés. Cette semaine, Google montre son vrai jeu : une concession publique (l'opt-out) et sept mouvements d'expansion silencieux.

C'est une stratégie classique en négociation. On donne un point visible pour faire passer sept points invisibles. L'opt-out fera les gros titres. L'extension du UCP, le déploiement de Personal Intelligence et la réécriture de titres passeront sous le radar.

Pour les éditeurs de sites, la leçon est la même depuis trois semaines : ne regardez pas la porte qui s'ouvre. Regardez les sept qui se ferment. Et construisez ce que l'IA ne peut pas intermédiariser : une relation client directe, des données first-party, un contenu que personne d'autre ne peut produire.

Le vrai risque n'est pas l'IA. Ce n'est même pas l'inertie. C'est de croire qu'un opt-out vous protège.

👉 Comment protéger votre site cette semaine ?

Trois actions : (1) Auditez votre tunnel de conversion — le checkout IA convertit trois fois moins bien, mais Google construit les rails. Votre tunnel doit être irréprochable avant que la fenêtre se ferme. (2) Structurez votre contenu par passage — les données confirment que les LLM cherchent des réponses à des sous-requêtes de 7+ mots. Chaque bloc de votre page doit être une réponse autonome. (3) Arrêtez de chercher le prochain acronyme — investissez dans ce qui marche depuis 20 ans : structure technique, contenu irremplaçable, autorité thématique.

Vous voulez savoir si votre site résiste à l'intermédiation ? Demandez un audit rapide de votre visibilité SEO et IA.

Sources

Google prépare une option pour exclure son contenu des résultats IA dans Search — Abondance

Google expands its Universal Commerce Protocol to power AI-driven shopping — Search Engine Land

Universal Commerce Protocol (UCP) : Google annonce de nouvelles fonctionnalités — Abondance

Walmart's ChatGPT checkout flopped. Here's what comes next. — PPC Land

Google confirms AI headline rewrites test in Search results — Search Engine Land

Google Expands Personal Intelligence As Jarvis Approaches — Search Engine Roundtable

AI Mode is Google's next ads engine — and it already knows how to monetize it — Search Engine Land

OpenAI Continues To Expand Ads in ChatGPT and Tests Ads Manager — Search Engine Roundtable

Fanout Query Analysis (365 000 requêtes) — DEJAN AI

Google AI Overviews now appear on 14% of shopping queries — Search Engine Land

Small publisher search traffic fell 60% over two years — Search Engine Land

Cloudflare CEO: Bots could overtake human web usage by 2027 — Search Engine Land

The Content Moat Is Dead. The Context Moat Is What Survives — Search Engine Journal

From SEO And CRO To Agentic AI Optimization (AAIO) — Search Engine Journal

We Tracked 2 Million ChatGPT Prompts. Shopping Showed Up Less Than 10% of the Time. — Profound

We reverse-engineered ChatGPT's Shopping trigger. Here's how it works. — Profound

Retour au blog
FAQ
Qu'est-ce que le SRO (Selection Rate Optimization) ?
arrow
Le SRO (Selection Rate Optimization) est une discipline formalisée par DEJAN AI qui mesure le taux auquel votre contenu est sélectionné comme source par les modèles IA (Google AI Mode, Gemini, ChatGPT). Contrairement au SEO classique qui optimise pour le ranking, le SRO optimise pour la probabilité d'être cité dans une réponse IA. Critères clés : densité informationnelle par passage (~15 mots), données chiffrées, blocs auto-suffisants et autorité thématique. Selon DEJAN, seulement 13 % des pages longues sont utilisées comme source IA.
Qu'est-ce que le query fan-out ?
arrow
Le query fan-out est le mécanisme par lequel les systèmes IA décomposent une requête utilisateur en plusieurs sous-requêtes envoyées simultanément à différentes sources de données, puis recomposent les résultats dans une réponse unifiée. Par exemple, quand un utilisateur demande à ChatGPT « meilleure cafetière à grain sous 500 € », le système envoie des requêtes séparées à Google Shopping puis assemble un carousel comparatif. C'est ce mécanisme qui explique que 83 % des produits ChatGPT proviennent de Google Shopping (Search Engine Land, mars 2026).
L'intermédiation IA est-elle réversible ?
arrow
À court terme, non. Google (AI Overviews, AI Mode, UCP) et OpenAI (ChatGPT Shopping, Instant Checkout) s'insèrent progressivement entre l'utilisateur et les sites web. Les auto-citations d'AI Mode ont triplé en neuf mois. Cependant, le circuit n'est pas encore fermé : les utilisateurs finalisent encore sur les sites marchands, et le grounding IA est transitoire — chaque requête est une nouvelle opportunité de sélection. La question n'est pas de renverser l'intermédiation mais de s'y positionner : structurer son contenu, diversifier ses canaux, et protéger son tunnel de conversion.
Qu’est-ce que le Grounding ?
arrow
Le Grounding est l’étape du pipeline IA où Google sélectionne, découpe et compresse le contenu des pages web pour n’en conserver que les fragments jugés réellement utiles à la réponse. Contrairement à une idée répandue, Google n’envoie jamais une page entière au modèle IA : il transmet uniquement des snippets extractifs, c’est-à-dire des morceaux de texte qui portent une information exploitable, factuelle et non ambiguë. En résumé : si votre contenu ne franchit pas cette étape, il n’existe pas pour l’IA.
Pourquoi les citations IA sont-elles devenues un levier stratégique en 2026 ?
arrow
Les citations IA se sont imposées parce que les LLM (ChatGPT, Perplexity, Gemini) ne fonctionnent pas comme Google : ils ne suivent pas les liens hypertextes, mais analysent des corpus de textes pour identifier des co-occurrences sémantiques. Si suffisamment de sources crédibles mentionnent votre marque sur un sujet donné, l'IA a de bonnes chances de la citer dans ses réponses comparatives. Ce mécanisme — parfois appelé GEO (Generative Engine Optimization) — offre un gain de visibilité réel, notamment sur les requêtes à forte intention (« meilleur X en 2026 »). Mais cette automatisation impose une vigilance accrue : les citations générées doivent être vérifiées, car les LLM restent vulnérables à la manipulation informationnelle. L'enjeu n'est pas seulement d'être cité, mais d'être cité correctement.
Comment protéger son site contre le remplacement par des pages IA ?
arrow
La meilleure protection est de rendre vos pages irremplaçables. Le brevet Google cible les pages à faible score — autrement dit, celles qui offrent une expérience utilisateur médiocre. Concrètement, cela passe par des données structurées irréprochables (Schema.org complet), un contenu aligné sur l'intention de recherche, des Core Web Vitals au vert et un tunnel de conversion optimisé. Au-delà de l'optimisation technique, la vraie question est stratégique : êtes-vous la source ou la couche intermédiaire ? Les sites qui survivent à l'intermédiation sont ceux qui offrent quelque chose que l'IA ne peut pas reproduire — une transaction propriétaire, une relation client, une expérience de marque unique. Enfin, diversifier vos canaux d'acquisition (email, réseaux sociaux, contenu propriétaire) réduit mécaniquement votre dépendance à Google.

Besoin d'un audit rapide ?

Recevez une analyse claire de votre site et un plan d’action priorisé pour améliorer votre visibilité.
Merci ! Nous allons traiter votre message !
Aïe ! Un problème s'est produit et le message ne s'est pas envoyé !