Services
Blog
Thèmes
Notre newsletter
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

ChatGPT-User crawle désormais 3,6× plus de pages que Googlebot. Bing détermine ce que ChatGPT recommande. Le centre de gravité du web a basculé.
Semaines du 24 mars au 6 avril 2026 — Quinze jours qui ont fait basculer le centre de gravité du web. OpenAI abandonne son checkout intégré et lance l'Agentic Commerce Protocol. Google déploie un troisième type de visiteur sur votre site. Le spam update le plus rapide de l'histoire se boucle en moins de 24 heures. Wikipedia bannit l'IA. Et au bout de la séquence, une analyse sur 24 millions de requêtes web confirme l'événement central : ChatGPT-User crawle désormais 3,6 fois plus de pages que Googlebot. Le crawler dominant du web n'est plus celui de Google.
Oui. Une analyse sur 24 millions de requêtes web publiée début avril 2026 montre que ChatGPT-User, l'agent de crawl d'OpenAI, parcourt désormais 3,6 fois plus de pages que Googlebot. Ce n'est plus une projection ni une tendance — c'est un fait mesuré. Le crawler dominant du web n'est plus celui de Google. Et c'est l'aboutissement d'une séquence de quinze jours pendant lesquels OpenAI a pivoté son commerce agentique, Google a déployé un troisième visiteur sur les sites, Wikipedia a banni le contenu IA, et le spam update Google s'est bouclé en moins de 24 heures. Le centre de gravité du web a basculé.
Début avril, Search Engine Journal publie une analyse basée sur 24 millions de requêtes web. Le résultat est sans ambiguïté : ChatGPT-User crawle 3,6 fois plus de pages que Googlebot. Sur le même périmètre, sur la même période, le crawler d'OpenAI a définitivement dépassé celui de Google.
Ce signal vient confirmer une tendance que nous documentions depuis fin mars : le trafic automatisé croît huit fois plus vite que le trafic humain. Mais ce qui était une projection est désormais un fait mesuré. Pour la première fois dans l'histoire du web, le crawler dominant n'est plus celui de Google. Et il vient clore quinze jours pendant lesquels tous les signaux ont convergé dans la même direction.
🚨 Ce que ça change concrètement pour votre site
L'infrastructure
Vos serveurs reçoivent maintenant plus de requêtes d'OpenAI que de Google. Si vous n'avez pas optimisé pour le trafic bot (cache, rate limiting, robots.txt), votre infrastructure subit une charge invisible mais bien réelle.
L'analytics
Votre Google Analytics ne capte rien de tout ça. Le trafic qui détermine désormais votre visibilité IA est précisément celui que vos outils de mesure ignorent.
La stratégie
Optimiser pour Googlebot ne suffit plus. ChatGPT-User a sa propre logique de crawl, ses propres préférences de structure, et une fréquence beaucoup plus élevée.
Une étude de cas publiée par Search Engine Land arrive à une conclusion contre-intuitive : même les top brands disparaissent de ChatGPT sans présence Bing. Ranker dans Bing boost la visibilité dans ChatGPT — pas l'inverse.
Mécaniquement, c'est logique. ChatGPT utilise Bing comme source de grounding pour ses requêtes web. Quand ChatGPT cherche à enrichir une réponse avec du contenu actuel, il interroge Bing en arrière-plan. Si vous n'êtes pas dans Bing, vous n'êtes pas dans le périmètre de sélection de ChatGPT.
Le paradoxe Bing en 2026 : son audience reste marginale (moins de 4 % de parts de marché en France), mais son influence sur l'AI search devient stratégique. Un site invisible sur Bing peut être complètement ignoré par ChatGPT — même s'il est top 3 sur Google. C'est exactement ce que confirmait le déploiement de Bing Webmaster Tools fin mars, qui ajoutait pour la première fois une vue des requêtes IA citant vos pages.
BuzzStream a publié une analyse sur 4 millions de citations IA. La conclusion est brutale : bloquer ChatGPT-User dans votre robots.txt n'empêche pas ChatGPT de citer votre contenu. Le contenu transite par d'autres canaux — Bing, Common Crawl, datasets d'entraînement existants, mémoire paramétrique du modèle.
Concrètement : un éditeur qui décide de fermer la porte aux crawlers IA pour protéger son contenu se retrouve cité quand même, mais sans aucun référent ni trafic en retour. Le pire des deux mondes.
Ce signal valide ce que nous écrivions il y a deux semaines sur le faux choix de l'opt-out IA. À l'époque, c'était un dilemme stratégique. Aujourd'hui, c'est une certitude empirique. Les barrières que les éditeurs pensaient avoir n'existent plus.
🚨 Le piège du blocage défensif
Ce que vous croyez faire
Bloquer ChatGPT-User dans robots.txt = protéger votre contenu, forcer les utilisateurs à venir sur votre site.
Ce qui se passe vraiment
ChatGPT continue de vous citer (via Bing, Common Crawl, mémoire d'entraînement). Mais votre site ne reçoit plus aucun signal de référent. Vous êtes invisible dans vos analytics, mais bien présent dans les réponses IA.
La conclusion
L'opt-out défensif est une illusion. Mieux vaut être présent et tracker que bloqué et invisible.
Une étude Semrush publiée début avril apporte une bouffée d'oxygène pour les éditeurs : le contenu humain a 8 fois plus de chances d'être en position #1 sur Google que le contenu généré par IA. Le contenu IA, lorsqu'il rank, apparaît systématiquement dans les positions basses de la page 1.
Ce signal s'inscrit dans une convergence plus large. En l'espace de trois semaines, quatre signaux ont convergé sur la séparation humain/machine :
Wikipedia a banni les articles générés par IA fin mars. Google a ajouté des labels IA/bot dans le schema.org Forum/Q&A. Le March 2026 spam update s'est bouclé en moins de 24 heures — le plus rapide jamais enregistré, signe que les systèmes de détection s'accélèrent. Et maintenant, Semrush quantifie l'écart : 8× plus de chances pour l'humain.
Trois raisons mesurables. Premièrement, les modèles de détection de Google se sont améliorés et identifient maintenant les patterns du contenu IA avec une précision suffisante pour le déclasser. Deuxièmement, le contenu humain produit naturellement les signaux de qualité que les LLM cherchent eux-mêmes : autorité d'auteur, perspective originale, données propriétaires, expérience vécue. Troisièmement, les LLM s'entraînent sur du contenu humain — citer du contenu IA générique reviendrait à introduire du bruit dans leurs propres réponses. Mais cet avantage est temporaire. Les modèles s'améliorent, et la barre du « contenu humain de qualité » monte chaque mois.
Duane Forrester a publié début avril une analyse qui prolonge directement la thèse de la séparation humain/machine. Son argument : llms.txt n'était qu'une étape défensive. La prochaine étape, c'est l'architecture offensive — APIs structurées, graphes d'entités, provenance.
L'idée derrière llms.txt était simple : dire aux LLM ce qu'ils peuvent prendre sur votre site. Mais Forrester pointe la limite : déclarer ce qu'on peut prendre ne suffit pas si la structure du contenu n'est pas exploitable. Pour qu'un LLM cite votre contenu de manière précise et stable, il faut lui donner des points d'ancrage : entités nommées clairement, relations explicites entre les concepts, sources de provenance vérifiables.
👉 Que faire concrètement avant que llms.txt ne devienne obsolète ?
Trois actions hiérarchisées. Court terme : compléter votre Schema.org pour chaque page (Article, Person, Organization, FAQ). C'est gratuit et ça donne aux LLM des points d'ancrage immédiats. Moyen terme : structurer vos contenus en blocs auto-suffisants de 15 mots, avec des titres explicites et une réponse directe au début de chaque section — c'est la logique du SRO. Long terme : construire un graphe d'entités propre à votre marque (personnes, concepts, méthodologies, données propriétaires) que les LLM peuvent ingérer sans ambiguïté. C'est l'architecture du context moat.
Pendant qu'OpenAI accélère sur la monétisation publicitaire (100 millions de dollars de revenus pub fin mars, self-serve ouvert en avril), un sondage Ipsos publié début avril vient doucher l'enthousiasme : 63 % des adultes américains disent que les pubs dans l'AI search réduiraient leur confiance.
Et le signal ne s'arrête pas là. Une autre étude SEJ confirme que ChatGPT Search cite désormais moins de sites par réponse depuis que GPT-5.3 Instant est devenu le modèle par défaut. Moins de citations = moins de référents = moins de raisons pour les éditeurs de continuer à produire.
Pendant ce temps, Google AI Mode déploie des sponsored stores et des quick web results au-dessus des réponses. La monétisation publicitaire avance malgré la défiance utilisateur. C'est une course contre la confiance — et personne n'est sûr de qui va gagner.
🚨 La fenêtre de confiance se referme — et personne n'écoute
Le signal côté utilisateur
63 % de rejet des pubs IA (Ipsos). C'est la même résistance que les early-2000s du search face aux sponsored links — mais accélérée.
Le signal côté plateforme
OpenAI à 100M$ de revenus pub en mars. Google AI Mode déploie sponsored stores. Amazon facture les prompts shopping IA.
Le décalage
Les plateformes monétisent pendant que les utilisateurs résistent. Historiquement, c'est la plateforme qui gagne — mais avec une perte de confiance qui pèse sur la qualité des réponses.
Le 3 avril, Google a publié un rapport d'anomalie de données reconnaissant officiellement un bug de logging dans Google Search Console. Le bug est actif depuis le 13 mai 2025 — soit presque 11 mois. Pendant toute cette période, les impressions affichées dans GSC étaient gonflées artificiellement.
Google déploie maintenant un correctif progressif. Concrètement : vos impressions GSC vont baisser dans les semaines à venir. Pas parce que votre site perd en visibilité, mais parce que les chiffres précédents étaient faux.
Comment expliquer cette baisse à vos clients : anticiper plutôt que justifier après coup. Envoyez un message court à vos clients cette semaine pour les prévenir qu'ils vont voir une baisse d'impressions dans leurs prochains rapports GSC, et que cette baisse est technique, pas due à une perte de visibilité. Mentionnez la source officielle Google. Une fois le correctif déployé, les chiffres seront plus bas mais plus fiables. Le clic et la position restent inchangés — c'est uniquement l'impression qui était fausse.
Le basculement du début avril n'est pas tombé du ciel. La semaine du 24 au 30 mars a posé toutes les pièces du puzzle.
OpenAI a abandonné Instant Checkout et lancé l'Agentic Commerce Protocol. Le format qui devait fermer le circuit du commerce agentique (acheter directement dans ChatGPT) a été enterré après quelques mois — il convertissait trois fois moins bien qu'un simple lien sortant. La découverte produit reste dans ChatGPT, mais la transaction repart chez le marchand. Le checkout IA, ça ne marche pas.
Google a déployé Google-Agent, un nouveau user-agent pour les agents IA hébergés par Google. C'est le troisième type de visiteur de votre site, après l'humain et Googlebot. Il navigue, remplit des formulaires, exécute des actions au nom de l'utilisateur. Et il apparaît déjà dans les logs serveur des sites instrumentés.
Le March 2026 Spam Update s'est bouclé en moins de 24 heures, le déploiement le plus rapide jamais enregistré. Et le March 2026 Core Update a démarré 48 heures plus tard — un double update en 72 heures, du jamais vu. Google accélère ses cycles de mise à jour parce que ses systèmes de détection sont devenus assez confiants pour boucler des déploiements mondiaux en heures, pas en semaines.
Abondance a publié Google Discover décodé : 20 pipelines internes, 42 millions de cartes observées sur trois mois, une cartographie inédite du fonctionnement interne d'un canal qui peut multiplier votre trafic par 10 en une journée. Pour les éditeurs qui produisent du contenu actuel, c'est la meilleure source disponible pour comprendre ce qui passe dans Discover et ce qui n'y passe jamais.
Et en arrière-plan : OpenAI a confirmé sa levée de 122 milliards de dollars, visant une valorisation de 852 milliards. La super-app agentique devient le plan officiel. Google a publié deux articles de Gary Illyes démystifiant l'architecture interne de Googlebot : limite de fetch à 2 Mo, plages IP déplacées, architecture SaaS centralisée. Une étude SEL montre que 59 % des offres d'emploi SEO sont désormais senior-level — l'IA prend en charge l'exécution, la demande se déplace vers les stratèges. UK regulators ont publié un avertissement formel : l'IA agentique est déjà déployée, il faut la surveiller maintenant. Et OpenAI a racheté TBPN, le talk show qui interview les dirigeants tech, pour « accélérer les conversations globales autour de l'IA ».
| Signal | Ce que ça signifie |
|---|---|
| ChatGPT-User crawle 3,6× plus que Googlebot (24M requêtes) | Le centre de gravité du crawl web a basculé. Vérifiez vos logs serveur |
| OpenAI abandonne Instant Checkout → Agentic Commerce Protocol | Le checkout IA ne marche pas. Votre tunnel de conversion reste votre dernier levier |
| Google-Agent déployé | Troisième type de visiteur de votre site, après l'humain et Googlebot |
| Spam update en <24h + Core update en 72h | Google accélère. Les tactiques de manipulation ont une fenêtre de vie qui rétrécit |
| Bing détermine ce que ChatGPT recommande | Sans présence Bing, vous disparaissez de ChatGPT. Auditez votre visibilité Bing |
| Bloquer les crawlers IA n'arrête pas les citations (BuzzStream, 4M citations) | L'opt-out défensif est une illusion. Bloqué et cité quand même |
| Contenu humain 8× plus de chances d'être #1 (Semrush) | Le contenu IA générique est déclassé. Le context moat humain garde sa valeur |
| Wikipedia bannit les articles IA | La source la plus citée par les LLM durcit la ligne humain/machine |
| Llms.txt n'était que l'étape 1 (Forrester) | Au-delà : APIs structurées, graphes d'entités, provenance |
| Discover décodé (Abondance, 20 pipelines, 42M cartes) | Première cartographie data du fonctionnement interne de Discover |
| 63 % des US rejettent les pubs IA (Ipsos) | Crise de confiance émergente. Les plateformes monétisent quand même |
| Bug GSC depuis mai 2025 | 11 mois d'impressions gonflées. Anticipez les « baisses » client |
| OpenAI lève 122 Md$, vise 852 Md$ | La super-app agentique devient le plan officiel |
| 59 % des offres SEO sont senior-level | L'IA exécute, l'humain stratégise. Le marché se restructure |
Il y a un mois, nous écrivions que l'intermédiation IA était devenue mesurable. Trois semaines plus tard, les murs se dressaient. Il y a deux semaines, Google ouvrait une porte et en fermait sept. Ces deux dernières semaines, le centre de gravité a basculé.
Ce n'est pas une rupture brutale — c'est l'aboutissement d'une trajectoire. Le web qui fonctionnait sur le couple requête + index est désormais doublé par un web qui fonctionne sur le couple conversation + agent. Les deux coexistent. Mais l'écart de croissance entre les deux est massif : ChatGPT-User crawle 3,6 fois plus que Googlebot, le trafic bot croît 8 fois plus vite que l'humain, les agents IA passent du pilote à la pratique dans tous les secteurs.
La question pour les éditeurs n'est plus « est-ce que l'IA va remplacer le search ? ». Cette question est dépassée. La vraie question, c'est : est-ce que vous construisez pour le web qui domine déjà, ou pour celui qui résiste encore ?
Les signaux contradictoires de cette quinzaine ne sont contradictoires qu'en apparence. Le contenu humain reste roi (Semrush 8×), Wikipedia bannit l'IA, le spam update se boucle en 24 heures — la couche humaine se protège. Mais en parallèle, ChatGPT-User dépasse Googlebot, Bing détermine ChatGPT, Google-Agent navigue sur les sites, et l'opt-out devient inutile — la couche machine domine. Les deux dynamiques sont vraies en même temps. Et c'est précisément ce qui rend cette période stratégique : il faut être lisible des deux côtés.
👉 Trois actions concrètes pour cette semaine
(1) Vérifiez vos logs serveur. Cherchez ChatGPT-User, OAI-SearchBot, ClaudeBot, PerplexityBot, Google-Agent. Mesurez le ratio bot/humain. C'est la réalité que votre analytics ne montre pas. (2) Auditez votre visibilité Bing. Ouvrez Bing Webmaster Tools (gratuit), regardez vos positions sur vos requêtes stratégiques. Si vous êtes invisible sur Bing, vous êtes invisible dans ChatGPT. (3) Prévenez vos clients du bug GSC. Un message court cette semaine évite un quart d'heure de justification dans le prochain rapport. Mentionnez la source Google officielle.
Vous voulez savoir si votre site est lisible des deux côtés ? Demandez un audit rapide de votre visibilité SEO et IA.
ChatGPT Now Crawls 3.6x More Than Googlebot: What 24M Requests Reveal — Search Engine Journal
Bing, not Google, shapes which brands ChatGPT recommends — Search Engine Land
Blocking AI crawlers doesn't stop citations - new data shows why — PPC Land
Human content is 8x more likely than AI to rank #1 on Google: Study — Search Engine Land
Llms.txt Was Step One. Here's The Architecture That Comes Next — Search Engine Journal
Trust In AI Search Could Drop With Ads, Survey Shows — Search Engine Journal
ChatGPT Search Is Citing Fewer Sites, Data Shows — Search Engine Journal
Sponsored stores and quick web results spotted inside Google AI Mode — PPC Land
Officiel : Google Search Console affichait de fausses impressions depuis mai 2025 — Abondance
GSC Logging Error Yielded Inflated Impressions Since May 2025 — Search Engine Roundtable
OpenAI abandonne Instant Checkout : ce que l'échec du paiement dans ChatGPT révèle — Abondance
Google-Agent user agent identifies AI agent traffic in server logs — Search Engine Land
Google March 2026 spam update done rolling out — Search Engine Land
Wikipedia bans AI-generated articles — The Verge
Google Discover sous le capot : 20 pipelines, des millions de cartes — Abondance
OpenAI lève 122 milliards de dollars et vise les 852 milliards de valorisation — Abondance
Google explains how crawling works in 2026 — Search Engine Land
59% of SEO jobs are now senior-level roles: Study — Search Engine Land
UK regulators warn agentic AI is already here - and it needs watching now — PPC Land
OpenAI acquires TBPN — OpenAI
Google's broken promise to publishers: the ghosting of 20 web creators — PPC Land