Les murs se dressent face à l'intermédiation IA

March 15, 2026
par
Tristan

Amazon bloque Perplexity. L'IAB veut faire payer le crawl IA. Anthropic attaque le Pentagone. Les murs se dressent.

Semaine du 9 au 15 mars 2026 — La semaine dernière, les données prouvaient que l'intermédiation IA est mesurable. Cette semaine, les murs se dressent. Amazon, les publishers et Anthropic contre-attaquent.

Les acteurs du web commencent-ils à résister à l'intermédiation IA ?

Oui, et sur trois fronts simultanés. Un juge fédéral a bloqué l'agent shopping de Perplexity sur Amazon. L'IAB Tech Lab a publié un protocole qui forcerait les LLM à payer avant de crawler du contenu. Et Anthropic a déposé une plainte contre le Pentagon, soutenue par des employés d'OpenAI et de Google — dont Jeff Dean. En parallèle, les données montrent que les AI Overviews réduisent les clics de 42 %, que Google envisage des pubs dans Gemini, et que ChatGPT cite des sources différentes selon qu'on utilise le modèle gratuit ou payant. L'intermédiation progresse, mais la résistance s'organise.

Amazon bloque judiciairement l'agent IA de Perplexity

Un juge fédéral a accordé une injonction préliminaire contre Perplexity, interdisant à son agent IA « Comet » d'accéder aux comptes Amazon protégés par mot de passe. Le juge ordonne également la destruction des données collectées.

Comet fonctionnait comme un browser agent : il se connectait au compte Amazon de l'utilisateur, parcourait les prix, comparait les offres et pouvait passer des commandes — le tout sans qu'Amazon ait autorisé cet accès. Amazon a considéré ça comme une intrusion dans ses systèmes.

C'est un précédent juridique majeur pour le commerce agentique. Les plateformes ne veulent pas être intermédiarisées par des agents tiers — exactement comme les sites ne veulent pas être intermédiarisés par Google.

Le paradoxe Amazon : Amazon bloque les agents tiers (Perplexity/Comet) tout en construisant son propre agent shopping IA, Rufus. Selon une analyse technique de DEJAN AI publiée cette semaine, Rufus est un système multi-composants avec pipeline structuré, mémoire conversationnelle et mémoire de compte. Amazon veut contrôler l'intermédiation, pas la subir.

IAB Tech Lab : les LLM devront payer avant de crawler

L'IAB Tech Lab a publié CoMP v1.0 (Commerce Media Protocol), un protocole standardisé qui exige des systèmes IA de sécuriser un accord commercial avec les publishers avant de crawler leur contenu. Le protocole est ouvert aux commentaires publics jusqu'au 9 avril 2026.

Si CoMP est adopté, ça crée un mur payant entre les LLM et le contenu web. Les publishers récupéreraient un pouvoir de négociation qu'ils ont progressivement perdu depuis l'arrivée des AI Overviews. C'est la première tentative structurée de l'industrie pour imposer un cadre commercial à l'extraction de contenu par l'IA.

👉 CoMP va-t-il vraiment changer les règles du jeu ?

Pas immédiatement. CoMP est un protocole volontaire, pas une loi. Son adoption dépendra du rapport de force entre publishers et plateformes IA. Mais le signal est clair : l'industrie publicitaire et les éditeurs de contenu organisent une résistance collective. Et l'IAB n'est pas un acteur marginal — c'est l'organisme qui définit les standards de la publicité numérique mondiale.

Anthropic attaque le Pentagon — et l'industrie se range derrière

Anthropic a déposé une plainte fédérale en Californie contre le Department of Defense, contestant la désignation « supply-chain risk » et l'interdiction présidentielle d'utiliser Claude dans les agences fédérales. L'entreprise accuse l'administration Trump de punir illégalement une entreprise pour avoir posé des limites éthiques sur l'usage militaire de ses modèles.

Mais le signal le plus fort est venu quelques heures après : près de 40 employés d'OpenAI et Google — dont Jeff Dean, chief scientist de Google et responsable Gemini — ont déposé un amicus brief (mémoire de soutien juridique) en faveur d'Anthropic. Ce n'est plus un conflit entre une startup et le Pentagon. C'est une partie de l'industrie IA qui se coalise autour d'un principe : les entreprises doivent pouvoir poser des limites sur l'usage de leur technologie.

🚨 Pourquoi ça concerne tous les éditeurs de sites

Le précédent Anthropic

Si le gouvernement US peut forcer un fournisseur IA à accepter n'importe quel usage de sa technologie, qu'est-ce qui empêche une plateforme de forcer un éditeur à accepter n'importe quel usage de son contenu ?

Le lien avec CoMP

La bataille Anthropic/Pentagon et le protocole CoMP posent la même question fondamentale : qui contrôle les conditions d'utilisation d'un produit numérique — son créateur ou celui qui l'utilise ?

L'enjeu

La réponse à cette question déterminera si les éditeurs de contenu conservent un levier de négociation face aux LLM, ou si l'extraction de contenu reste un droit de facto.

AI Overviews : -42 % de clics, mais Discover explose

Un nouveau rapport publié cette semaine confirme que les AI Overviews réduisent les clics organiques de 42 %. C'est un chiffre plus conservateur que le -58 % mesuré par Ahrefs, ce qui le rend d'autant plus crédible.

Mais le rapport révèle aussi deux contrepoints importants : le trafic breaking news a bondi de 103 %, et les clics Discover sont en forte hausse. Le trafic organique ne disparaît pas — il migre vers d'autres formats et canaux. Les sites qui s'adaptent à Discover et au contenu d'actualité captent ce trafic redistribué. Les autres le perdent.

Ce que ça change concrètement : investir dans Google Discover et dans du contenu d'actualité à forte valeur informationnelle n'est plus optionnel — c'est devenu le canal de compensation naturel face à la baisse des clics organiques classiques. (Nous avions documenté la semaine dernière comment les données de l'intermédiation IA convergent.)

Google ouvre la porte aux publicités dans Gemini

Un dirigeant Google a déclaré cette semaine que l'entreprise « n'exclut plus » les publicités dans son application Gemini. C'est un revirement notable : il y a quelques mois, la position officielle était un refus catégorique.

Combiné avec les pubs ChatGPT (OpenAI/Trade Desk), les pubs AI Mode déjà en test, et la mise à jour de la politique de confidentialité d'OpenAI pour le ciblage publicitaire, la tendance est claire : tous les LLM convergent vers la monétisation publicitaire. L'AI search n'est plus seulement un canal organique — il devient un canal SEA.

ChatGPT gratuit et premium citent des sources différentes

Une analyse publiée par Search Engine Journal révèle que les modèles default (gratuit) et premium (payant) de ChatGPT citent des sources presque entièrement différentes pour les mêmes requêtes. Ce n'est pas un écart marginal — ce sont des pipelines de sélection distincts.

Pour les praticiens du SRO (Selection Rate Optimization — le taux auquel votre contenu est sélectionné comme source par les LLM), c'est une complication majeure. Optimiser pour « ChatGPT » ne suffit plus — il faut savoir pour quel ChatGPT vous optimisez. Et avec 900 millions d'utilisateurs dont la majorité est sur le modèle gratuit, ignorer cette fragmentation n'est pas une option.

Les signaux complémentaires de la semaine

Semaine du 9 au 15 mars 2026 — autres signaux à retenir
Signal Source Ce que ça signifie
56 % du volume search mondial vient des assistants IA Search Engine Land 45 milliards de sessions/mois. L'AI search n'est plus émergent — c'est la moitié du marché
LinkedIn #2 dans les citations IA en B2B Semrush (89K URLs) Publier sur LinkedIn, c'est publier dans un écosystème LLM-native
Anthropic investit $100M dans le Claude Partner Network Anthropic Construction d'écosystème en plein conflit Pentagon. Croissance offensive
Claude 1M tokens en GA, sans surcoût Anthropic / Simon Willison Avantage prix vs OpenAI et Google qui facturent plus au-delà de 200K tokens. Différenciateur stack
Google lance Ask Maps — AI Mode pour Maps SER / SEJ L'intermédiation IA arrive dans la recherche locale. Les fiches GBP vont être filtrées par Gemini
LinkedIn reconstruit son feed avec des LLM PPC Land Ranking personnalisé en <50ms. LinkedIn optimise son propre contenu pour les LLM. Publier sur LinkedIn = nourrir les citations IA

Ce que ça implique pour votre site

1. Les agents IA se heurtent aux murs juridiques — mais ce n'est que le début

Amazon bloque Perplexity. L'IAB lance CoMP. Anthropic attaque le Pentagone. Ces trois événements en une semaine montrent que les acteurs du web ne vont pas se laisser intermédiariser passivement. Mais les murs juridiques et commerciaux prennent du temps à s'ériger — et l'intermédiation, elle, avance chaque jour. Le meilleur mur que vous pouvez construire est un tunnel de conversion que l'IA ne peut pas court-circuiter : relation client directe, données first-party, expérience propriétaire.

2. Discover est votre canal de compensation

-42 % de clics organiques sur les requêtes avec AI Overviews. Mais +103 % sur le breaking news et une hausse forte de Discover. Si votre site ne capte pas encore de trafic Discover, c'est du trafic que vos concurrents récupèrent à votre place. L'optimisation Discover (images, og:image, schema.org, fraîcheur du contenu) n'est plus un « nice to have ». (Nous avions détaillé le fonctionnement des thumbnails Discover dans notre analyse sur le brevet Google et les landing pages IA.)

3. La fragmentation des sources IA est le prochain défi

ChatGPT gratuit et premium ne citent pas les mêmes sources. Google AI Mode et Gemini pourraient converger — ou diverger. Amazon construit Rufus en parallèle. Chaque LLM a son propre pipeline de sélection, ses propres critères, ses propres biais. Optimiser pour « l'IA » en général ne suffit plus. Il faut optimiser pour chaque pipeline — ou, mieux, construire un contenu tellement dense et structuré qu'il est sélectionné par tous.

Notre lecture chez Refmax

La semaine dernière, les données ont prouvé que l'intermédiation IA est mesurable. Cette semaine, les murs se dressent. Amazon bloque les agents. Les publishers veulent faire payer le crawl. Anthropic attaque le gouvernement.

C'est un signe de maturité : quand un phénomène devient mesurable, les acteurs impactés réagissent. L'intermédiation n'est plus un concept abstrait — c'est un champ de bataille avec des parties prenantes, des avocats et des protocoles.

Mais ne vous méprenez pas : les murs ne vont pas stopper l'intermédiation. Ils vont la ralentir, la structurer et la monétiser. Le commerce agentique passera — mais il passera par des accords commerciaux (CoMP), des décisions de justice (Perplexity/Amazon) et des standards de sécurité (Anthropic/Pentagone).

Pour les éditeurs de sites, le message est le même qu'il y a deux semaines : le vrai risque n'est pas l'IA. C'est l'inertie. Mais cette semaine ajoute une nuance : les murs se dressent pour ceux qui agissent. Pas pour ceux qui attendent.

👉 Comment protéger votre site face à l'intermédiation IA ?

Trois actions prioritaires : (1) investissez dans Discover — c'est le canal de compensation face aux -42 % de clics AIO. (2) structurez votre contenu par passage pour être sélectionné par tous les pipelines LLM, pas un seul. (3) protégez votre tunnel de conversion — tant que le checkout IA patine, votre site reste le point de contact direct. Renforcez-le avant que Mastercard/Google (Verifiable Intent) et OpenAI (Instant Checkout) ne le court-circuitent.

Vous voulez savoir si votre site résiste à l'intermédiation ? Demandez un audit rapide de votre visibilité SEO et IA.

Retour au blog
FAQ
Qu'est-ce que le SRO (Selection Rate Optimization) ?
arrow
Le SRO (Selection Rate Optimization) est une discipline formalisée par DEJAN AI qui mesure le taux auquel votre contenu est sélectionné comme source par les modèles IA (Google AI Mode, Gemini, ChatGPT). Contrairement au SEO classique qui optimise pour le ranking, le SRO optimise pour la probabilité d'être cité dans une réponse IA. Critères clés : densité informationnelle par passage (~15 mots), données chiffrées, blocs auto-suffisants et autorité thématique. Selon DEJAN, seulement 13 % des pages longues sont utilisées comme source IA.
Qu'est-ce que le query fan-out ?
arrow
Le query fan-out est le mécanisme par lequel les systèmes IA décomposent une requête utilisateur en plusieurs sous-requêtes envoyées simultanément à différentes sources de données, puis recomposent les résultats dans une réponse unifiée. Par exemple, quand un utilisateur demande à ChatGPT « meilleure cafetière à grain sous 500 € », le système envoie des requêtes séparées à Google Shopping puis assemble un carousel comparatif. C'est ce mécanisme qui explique que 83 % des produits ChatGPT proviennent de Google Shopping (Search Engine Land, mars 2026).
L'intermédiation IA est-elle réversible ?
arrow
À court terme, non. Google (AI Overviews, AI Mode, UCP) et OpenAI (ChatGPT Shopping, Instant Checkout) s'insèrent progressivement entre l'utilisateur et les sites web. Les auto-citations d'AI Mode ont triplé en neuf mois. Cependant, le circuit n'est pas encore fermé : les utilisateurs finalisent encore sur les sites marchands, et le grounding IA est transitoire — chaque requête est une nouvelle opportunité de sélection. La question n'est pas de renverser l'intermédiation mais de s'y positionner : structurer son contenu, diversifier ses canaux, et protéger son tunnel de conversion.
Qu’est-ce que le Grounding ?
arrow
Le Grounding est l’étape du pipeline IA où Google sélectionne, découpe et compresse le contenu des pages web pour n’en conserver que les fragments jugés réellement utiles à la réponse. Contrairement à une idée répandue, Google n’envoie jamais une page entière au modèle IA : il transmet uniquement des snippets extractifs, c’est-à-dire des morceaux de texte qui portent une information exploitable, factuelle et non ambiguë. En résumé : si votre contenu ne franchit pas cette étape, il n’existe pas pour l’IA.
Pourquoi les citations IA sont-elles devenues un levier stratégique en 2026 ?
arrow
Les citations IA se sont imposées parce que les LLM (ChatGPT, Perplexity, Gemini) ne fonctionnent pas comme Google : ils ne suivent pas les liens hypertextes, mais analysent des corpus de textes pour identifier des co-occurrences sémantiques. Si suffisamment de sources crédibles mentionnent votre marque sur un sujet donné, l'IA a de bonnes chances de la citer dans ses réponses comparatives. Ce mécanisme — parfois appelé GEO (Generative Engine Optimization) — offre un gain de visibilité réel, notamment sur les requêtes à forte intention (« meilleur X en 2026 »). Mais cette automatisation impose une vigilance accrue : les citations générées doivent être vérifiées, car les LLM restent vulnérables à la manipulation informationnelle. L'enjeu n'est pas seulement d'être cité, mais d'être cité correctement.
Comment protéger son site contre le remplacement par des pages IA ?
arrow
La meilleure protection est de rendre vos pages irremplaçables. Le brevet Google cible les pages à faible score — autrement dit, celles qui offrent une expérience utilisateur médiocre. Concrètement, cela passe par des données structurées irréprochables (Schema.org complet), un contenu aligné sur l'intention de recherche, des Core Web Vitals au vert et un tunnel de conversion optimisé. Au-delà de l'optimisation technique, la vraie question est stratégique : êtes-vous la source ou la couche intermédiaire ? Les sites qui survivent à l'intermédiation sont ceux qui offrent quelque chose que l'IA ne peut pas reproduire — une transaction propriétaire, une relation client, une expérience de marque unique. Enfin, diversifier vos canaux d'acquisition (email, réseaux sociaux, contenu propriétaire) réduit mécaniquement votre dépendance à Google.

Besoin d'un audit rapide ?

Recevez une analyse claire de votre site et un plan d’action priorisé pour améliorer votre visibilité.
Merci ! Nous allons traiter votre message !
Aïe ! Un problème s'est produit et le message ne s'est pas envoyé !