Le basculement : ChatGPT crawle maintenant 3,6× plus que Google

April 7, 2026
par
Tristan

ChatGPT-User crawle désormais 3,6× plus de pages que Googlebot. Bing détermine ce que ChatGPT recommande. Le centre de gravité du web a basculé.

Semaines du 24 mars au 6 avril 2026 — Quinze jours qui ont fait basculer le centre de gravité du web. OpenAI abandonne son checkout intégré et lance l'Agentic Commerce Protocol. Google déploie un troisième type de visiteur sur votre site. Le spam update le plus rapide de l'histoire se boucle en moins de 24 heures. Wikipedia bannit l'IA. Et au bout de la séquence, une analyse sur 24 millions de requêtes web confirme l'événement central : ChatGPT-User crawle désormais 3,6 fois plus de pages que Googlebot. Le crawler dominant du web n'est plus celui de Google.

ChatGPT crawle-t-il vraiment plus de pages que Google ?

Oui. Une analyse sur 24 millions de requêtes web publiée début avril 2026 montre que ChatGPT-User, l'agent de crawl d'OpenAI, parcourt désormais 3,6 fois plus de pages que Googlebot. Ce n'est plus une projection ni une tendance — c'est un fait mesuré. Le crawler dominant du web n'est plus celui de Google. Et c'est l'aboutissement d'une séquence de quinze jours pendant lesquels OpenAI a pivoté son commerce agentique, Google a déployé un troisième visiteur sur les sites, Wikipedia a banni le contenu IA, et le spam update Google s'est bouclé en moins de 24 heures. Le centre de gravité du web a basculé.

L'événement : ChatGPT-User dépasse Googlebot 3,6×

Début avril, Search Engine Journal publie une analyse basée sur 24 millions de requêtes web. Le résultat est sans ambiguïté : ChatGPT-User crawle 3,6 fois plus de pages que Googlebot. Sur le même périmètre, sur la même période, le crawler d'OpenAI a définitivement dépassé celui de Google.

Ce signal vient confirmer une tendance que nous documentions depuis fin mars : le trafic automatisé croît huit fois plus vite que le trafic humain. Mais ce qui était une projection est désormais un fait mesuré. Pour la première fois dans l'histoire du web, le crawler dominant n'est plus celui de Google. Et il vient clore quinze jours pendant lesquels tous les signaux ont convergé dans la même direction.

🚨 Ce que ça change concrètement pour votre site

L'infrastructure

Vos serveurs reçoivent maintenant plus de requêtes d'OpenAI que de Google. Si vous n'avez pas optimisé pour le trafic bot (cache, rate limiting, robots.txt), votre infrastructure subit une charge invisible mais bien réelle.

L'analytics

Votre Google Analytics ne capte rien de tout ça. Le trafic qui détermine désormais votre visibilité IA est précisément celui que vos outils de mesure ignorent.

La stratégie

Optimiser pour Googlebot ne suffit plus. ChatGPT-User a sa propre logique de crawl, ses propres préférences de structure, et une fréquence beaucoup plus élevée.

Bing détermine ce que ChatGPT recommande

Une étude de cas publiée par Search Engine Land arrive à une conclusion contre-intuitive : même les top brands disparaissent de ChatGPT sans présence Bing. Ranker dans Bing boost la visibilité dans ChatGPT — pas l'inverse.

Mécaniquement, c'est logique. ChatGPT utilise Bing comme source de grounding pour ses requêtes web. Quand ChatGPT cherche à enrichir une réponse avec du contenu actuel, il interroge Bing en arrière-plan. Si vous n'êtes pas dans Bing, vous n'êtes pas dans le périmètre de sélection de ChatGPT.

Le paradoxe Bing en 2026 : son audience reste marginale (moins de 4 % de parts de marché en France), mais son influence sur l'AI search devient stratégique. Un site invisible sur Bing peut être complètement ignoré par ChatGPT — même s'il est top 3 sur Google. C'est exactement ce que confirmait le déploiement de Bing Webmaster Tools fin mars, qui ajoutait pour la première fois une vue des requêtes IA citant vos pages.

Bloquer les crawlers IA n'arrête plus les citations

BuzzStream a publié une analyse sur 4 millions de citations IA. La conclusion est brutale : bloquer ChatGPT-User dans votre robots.txt n'empêche pas ChatGPT de citer votre contenu. Le contenu transite par d'autres canaux — Bing, Common Crawl, datasets d'entraînement existants, mémoire paramétrique du modèle.

Concrètement : un éditeur qui décide de fermer la porte aux crawlers IA pour protéger son contenu se retrouve cité quand même, mais sans aucun référent ni trafic en retour. Le pire des deux mondes.

Ce signal valide ce que nous écrivions il y a deux semaines sur le faux choix de l'opt-out IA. À l'époque, c'était un dilemme stratégique. Aujourd'hui, c'est une certitude empirique. Les barrières que les éditeurs pensaient avoir n'existent plus.

🚨 Le piège du blocage défensif

Ce que vous croyez faire

Bloquer ChatGPT-User dans robots.txt = protéger votre contenu, forcer les utilisateurs à venir sur votre site.

Ce qui se passe vraiment

ChatGPT continue de vous citer (via Bing, Common Crawl, mémoire d'entraînement). Mais votre site ne reçoit plus aucun signal de référent. Vous êtes invisible dans vos analytics, mais bien présent dans les réponses IA.

La conclusion

L'opt-out défensif est une illusion. Mieux vaut être présent et tracker que bloqué et invisible.

Le contenu humain reste roi (mais pour combien de temps ?)

Une étude Semrush publiée début avril apporte une bouffée d'oxygène pour les éditeurs : le contenu humain a 8 fois plus de chances d'être en position #1 sur Google que le contenu généré par IA. Le contenu IA, lorsqu'il rank, apparaît systématiquement dans les positions basses de la page 1.

Ce signal s'inscrit dans une convergence plus large. En l'espace de trois semaines, quatre signaux ont convergé sur la séparation humain/machine :

Wikipedia a banni les articles générés par IA fin mars. Google a ajouté des labels IA/bot dans le schema.org Forum/Q&A. Le March 2026 spam update s'est bouclé en moins de 24 heures — le plus rapide jamais enregistré, signe que les systèmes de détection s'accélèrent. Et maintenant, Semrush quantifie l'écart : 8× plus de chances pour l'humain.

Pourquoi le contenu humain garde l'avantage en 2026 ?

Trois raisons mesurables. Premièrement, les modèles de détection de Google se sont améliorés et identifient maintenant les patterns du contenu IA avec une précision suffisante pour le déclasser. Deuxièmement, le contenu humain produit naturellement les signaux de qualité que les LLM cherchent eux-mêmes : autorité d'auteur, perspective originale, données propriétaires, expérience vécue. Troisièmement, les LLM s'entraînent sur du contenu humain — citer du contenu IA générique reviendrait à introduire du bruit dans leurs propres réponses. Mais cet avantage est temporaire. Les modèles s'améliorent, et la barre du « contenu humain de qualité » monte chaque mois.

Llms.txt n'était que l'étape 1

Duane Forrester a publié début avril une analyse qui prolonge directement la thèse de la séparation humain/machine. Son argument : llms.txt n'était qu'une étape défensive. La prochaine étape, c'est l'architecture offensive — APIs structurées, graphes d'entités, provenance.

L'idée derrière llms.txt était simple : dire aux LLM ce qu'ils peuvent prendre sur votre site. Mais Forrester pointe la limite : déclarer ce qu'on peut prendre ne suffit pas si la structure du contenu n'est pas exploitable. Pour qu'un LLM cite votre contenu de manière précise et stable, il faut lui donner des points d'ancrage : entités nommées clairement, relations explicites entre les concepts, sources de provenance vérifiables.

👉 Que faire concrètement avant que llms.txt ne devienne obsolète ?

Trois actions hiérarchisées. Court terme : compléter votre Schema.org pour chaque page (Article, Person, Organization, FAQ). C'est gratuit et ça donne aux LLM des points d'ancrage immédiats. Moyen terme : structurer vos contenus en blocs auto-suffisants de 15 mots, avec des titres explicites et une réponse directe au début de chaque section — c'est la logique du SRO. Long terme : construire un graphe d'entités propre à votre marque (personnes, concepts, méthodologies, données propriétaires) que les LLM peuvent ingérer sans ambiguïté. C'est l'architecture du context moat.

La crise de confiance émerge

Pendant qu'OpenAI accélère sur la monétisation publicitaire (100 millions de dollars de revenus pub fin mars, self-serve ouvert en avril), un sondage Ipsos publié début avril vient doucher l'enthousiasme : 63 % des adultes américains disent que les pubs dans l'AI search réduiraient leur confiance.

Et le signal ne s'arrête pas là. Une autre étude SEJ confirme que ChatGPT Search cite désormais moins de sites par réponse depuis que GPT-5.3 Instant est devenu le modèle par défaut. Moins de citations = moins de référents = moins de raisons pour les éditeurs de continuer à produire.

Pendant ce temps, Google AI Mode déploie des sponsored stores et des quick web results au-dessus des réponses. La monétisation publicitaire avance malgré la défiance utilisateur. C'est une course contre la confiance — et personne n'est sûr de qui va gagner.

🚨 La fenêtre de confiance se referme — et personne n'écoute

Le signal côté utilisateur

63 % de rejet des pubs IA (Ipsos). C'est la même résistance que les early-2000s du search face aux sponsored links — mais accélérée.

Le signal côté plateforme

OpenAI à 100M$ de revenus pub en mars. Google AI Mode déploie sponsored stores. Amazon facture les prompts shopping IA.

Le décalage

Les plateformes monétisent pendant que les utilisateurs résistent. Historiquement, c'est la plateforme qui gagne — mais avec une perte de confiance qui pèse sur la qualité des réponses.

Bug GSC : 11 mois d'impressions fantômes

Le 3 avril, Google a publié un rapport d'anomalie de données reconnaissant officiellement un bug de logging dans Google Search Console. Le bug est actif depuis le 13 mai 2025 — soit presque 11 mois. Pendant toute cette période, les impressions affichées dans GSC étaient gonflées artificiellement.

Google déploie maintenant un correctif progressif. Concrètement : vos impressions GSC vont baisser dans les semaines à venir. Pas parce que votre site perd en visibilité, mais parce que les chiffres précédents étaient faux.

Comment expliquer cette baisse à vos clients : anticiper plutôt que justifier après coup. Envoyez un message court à vos clients cette semaine pour les prévenir qu'ils vont voir une baisse d'impressions dans leurs prochains rapports GSC, et que cette baisse est technique, pas due à une perte de visibilité. Mentionnez la source officielle Google. Une fois le correctif déployé, les chiffres seront plus bas mais plus fiables. Le clic et la position restent inchangés — c'est uniquement l'impression qui était fausse.

La semaine d'avant : ce qui a préparé le basculement

Le basculement du début avril n'est pas tombé du ciel. La semaine du 24 au 30 mars a posé toutes les pièces du puzzle.

OpenAI a abandonné Instant Checkout et lancé l'Agentic Commerce Protocol. Le format qui devait fermer le circuit du commerce agentique (acheter directement dans ChatGPT) a été enterré après quelques mois — il convertissait trois fois moins bien qu'un simple lien sortant. La découverte produit reste dans ChatGPT, mais la transaction repart chez le marchand. Le checkout IA, ça ne marche pas.

Google a déployé Google-Agent, un nouveau user-agent pour les agents IA hébergés par Google. C'est le troisième type de visiteur de votre site, après l'humain et Googlebot. Il navigue, remplit des formulaires, exécute des actions au nom de l'utilisateur. Et il apparaît déjà dans les logs serveur des sites instrumentés.

Le March 2026 Spam Update s'est bouclé en moins de 24 heures, le déploiement le plus rapide jamais enregistré. Et le March 2026 Core Update a démarré 48 heures plus tard — un double update en 72 heures, du jamais vu. Google accélère ses cycles de mise à jour parce que ses systèmes de détection sont devenus assez confiants pour boucler des déploiements mondiaux en heures, pas en semaines.

Abondance a publié Google Discover décodé : 20 pipelines internes, 42 millions de cartes observées sur trois mois, une cartographie inédite du fonctionnement interne d'un canal qui peut multiplier votre trafic par 10 en une journée. Pour les éditeurs qui produisent du contenu actuel, c'est la meilleure source disponible pour comprendre ce qui passe dans Discover et ce qui n'y passe jamais.

Et en arrière-plan : OpenAI a confirmé sa levée de 122 milliards de dollars, visant une valorisation de 852 milliards. La super-app agentique devient le plan officiel. Google a publié deux articles de Gary Illyes démystifiant l'architecture interne de Googlebot : limite de fetch à 2 Mo, plages IP déplacées, architecture SaaS centralisée. Une étude SEL montre que 59 % des offres d'emploi SEO sont désormais senior-level — l'IA prend en charge l'exécution, la demande se déplace vers les stratèges. UK regulators ont publié un avertissement formel : l'IA agentique est déjà déployée, il faut la surveiller maintenant. Et OpenAI a racheté TBPN, le talk show qui interview les dirigeants tech, pour « accélérer les conversations globales autour de l'IA ».

Les signaux de la quinzaine en un tableau

Du 24 mars au 6 avril 2026 — les mouvements qui comptent
Signal Ce que ça signifie
ChatGPT-User crawle 3,6× plus que Googlebot (24M requêtes) Le centre de gravité du crawl web a basculé. Vérifiez vos logs serveur
OpenAI abandonne Instant Checkout → Agentic Commerce Protocol Le checkout IA ne marche pas. Votre tunnel de conversion reste votre dernier levier
Google-Agent déployé Troisième type de visiteur de votre site, après l'humain et Googlebot
Spam update en <24h + Core update en 72h Google accélère. Les tactiques de manipulation ont une fenêtre de vie qui rétrécit
Bing détermine ce que ChatGPT recommande Sans présence Bing, vous disparaissez de ChatGPT. Auditez votre visibilité Bing
Bloquer les crawlers IA n'arrête pas les citations (BuzzStream, 4M citations) L'opt-out défensif est une illusion. Bloqué et cité quand même
Contenu humain 8× plus de chances d'être #1 (Semrush) Le contenu IA générique est déclassé. Le context moat humain garde sa valeur
Wikipedia bannit les articles IA La source la plus citée par les LLM durcit la ligne humain/machine
Llms.txt n'était que l'étape 1 (Forrester) Au-delà : APIs structurées, graphes d'entités, provenance
Discover décodé (Abondance, 20 pipelines, 42M cartes) Première cartographie data du fonctionnement interne de Discover
63 % des US rejettent les pubs IA (Ipsos) Crise de confiance émergente. Les plateformes monétisent quand même
Bug GSC depuis mai 2025 11 mois d'impressions gonflées. Anticipez les « baisses » client
OpenAI lève 122 Md$, vise 852 Md$ La super-app agentique devient le plan officiel
59 % des offres SEO sont senior-level L'IA exécute, l'humain stratégise. Le marché se restructure

Notre lecture chez Refmax

Il y a un mois, nous écrivions que l'intermédiation IA était devenue mesurable. Trois semaines plus tard, les murs se dressaient. Il y a deux semaines, Google ouvrait une porte et en fermait sept. Ces deux dernières semaines, le centre de gravité a basculé.

Ce n'est pas une rupture brutale — c'est l'aboutissement d'une trajectoire. Le web qui fonctionnait sur le couple requête + index est désormais doublé par un web qui fonctionne sur le couple conversation + agent. Les deux coexistent. Mais l'écart de croissance entre les deux est massif : ChatGPT-User crawle 3,6 fois plus que Googlebot, le trafic bot croît 8 fois plus vite que l'humain, les agents IA passent du pilote à la pratique dans tous les secteurs.

La question pour les éditeurs n'est plus « est-ce que l'IA va remplacer le search ? ». Cette question est dépassée. La vraie question, c'est : est-ce que vous construisez pour le web qui domine déjà, ou pour celui qui résiste encore ?

Les signaux contradictoires de cette quinzaine ne sont contradictoires qu'en apparence. Le contenu humain reste roi (Semrush 8×), Wikipedia bannit l'IA, le spam update se boucle en 24 heures — la couche humaine se protège. Mais en parallèle, ChatGPT-User dépasse Googlebot, Bing détermine ChatGPT, Google-Agent navigue sur les sites, et l'opt-out devient inutile — la couche machine domine. Les deux dynamiques sont vraies en même temps. Et c'est précisément ce qui rend cette période stratégique : il faut être lisible des deux côtés.

👉 Trois actions concrètes pour cette semaine

(1) Vérifiez vos logs serveur. Cherchez ChatGPT-User, OAI-SearchBot, ClaudeBot, PerplexityBot, Google-Agent. Mesurez le ratio bot/humain. C'est la réalité que votre analytics ne montre pas. (2) Auditez votre visibilité Bing. Ouvrez Bing Webmaster Tools (gratuit), regardez vos positions sur vos requêtes stratégiques. Si vous êtes invisible sur Bing, vous êtes invisible dans ChatGPT. (3) Prévenez vos clients du bug GSC. Un message court cette semaine évite un quart d'heure de justification dans le prochain rapport. Mentionnez la source Google officielle.

Vous voulez savoir si votre site est lisible des deux côtés ? Demandez un audit rapide de votre visibilité SEO et IA.

Sources

ChatGPT Now Crawls 3.6x More Than Googlebot: What 24M Requests Reveal — Search Engine Journal

Bing, not Google, shapes which brands ChatGPT recommends — Search Engine Land

Blocking AI crawlers doesn't stop citations - new data shows why — PPC Land

Human content is 8x more likely than AI to rank #1 on Google: Study — Search Engine Land

Llms.txt Was Step One. Here's The Architecture That Comes Next — Search Engine Journal

Trust In AI Search Could Drop With Ads, Survey Shows — Search Engine Journal

ChatGPT Search Is Citing Fewer Sites, Data Shows — Search Engine Journal

Sponsored stores and quick web results spotted inside Google AI Mode — PPC Land

Officiel : Google Search Console affichait de fausses impressions depuis mai 2025 — Abondance

GSC Logging Error Yielded Inflated Impressions Since May 2025 — Search Engine Roundtable

OpenAI abandonne Instant Checkout : ce que l'échec du paiement dans ChatGPT révèle — Abondance

Google-Agent user agent identifies AI agent traffic in server logs — Search Engine Land

Google March 2026 spam update done rolling out — Search Engine Land

Wikipedia bans AI-generated articles — The Verge

Google Discover sous le capot : 20 pipelines, des millions de cartes — Abondance

OpenAI lève 122 milliards de dollars et vise les 852 milliards de valorisation — Abondance

Google explains how crawling works in 2026 — Search Engine Land

59% of SEO jobs are now senior-level roles: Study — Search Engine Land

UK regulators warn agentic AI is already here - and it needs watching now — PPC Land

OpenAI acquires TBPN — OpenAI

Google's broken promise to publishers: the ghosting of 20 web creators — PPC Land

Retour au blog
FAQ
Est-il vrai que ChatGPT crawle plus de pages que Google ?
arrow
Oui. Sur 24 millions de requêtes analysées en avril 2026, ChatGPT-User crawle 3,6 fois plus de pages que Googlebot. C'est le premier basculement historique : le crawler dominant du web n'est plus celui de Google.
Pourquoi être visible sur Bing influence-t-il les recommandations ChatGPT ?
arrow
ChatGPT utilise Bing comme source de grounding pour ses requêtes web. Sans présence Bing, votre site est invisible dans ChatGPT — même s'il est top 3 sur Google. C'est le paradoxe Bing 2026 : audience marginale, influence stratégique.
Bloquer les crawlers IA dans robots.txt empêche-t-il vraiment les citations ?
arrow
Non. Sur 4 millions de citations IA analysées (BuzzStream, avril 2026), bloquer ChatGPT-User dans robots.txt n'empêche pas ChatGPT de citer le contenu — qui transite par Bing, Common Crawl et la mémoire d'entraînement. L'opt-out défensif est une illusion.
Pourquoi les impressions Google Search Console vont-elles baisser dans les prochaines semaines ?
arrow
Google a reconnu officiellement le 3 avril 2026 un bug de logging GSC actif depuis le 13 mai 2025. Les impressions étaient gonflées pendant 11 mois. Le correctif progressif fera baisser les chiffres — c'est technique, pas une perte de visibilité.
Pourquoi llms.txt n'est-il qu'une étape défensive de l'optimisation IA ?
arrow
Llms.txt déclare ce que les LLM peuvent prendre. Mais déclarer ne suffit pas — il faut une structure exploitable. La prochaine étape : APIs structurées, graphes d'entités, provenance vérifiable. C'est l'architecture du context moat (Forrester, avril 2026).
Quelles actions concrètes mettre en place cette semaine face au basculement ChatGPT/Google ?
arrow
Trois actions cette semaine : (1) vérifier les logs serveur pour identifier ChatGPT-User et autres bots IA, (2) auditer la visibilité Bing via Bing Webmaster Tools puisque ChatGPT s'y appuie, (3) prévenir les clients du bug GSC avant la baisse mécanique des impressions.

Besoin d'un audit rapide ?

Recevez une analyse claire de votre site et un plan d’action priorisé pour améliorer votre visibilité.
Merci ! Nous allons traiter votre message !
Aïe ! Un problème s'est produit et le message ne s'est pas envoyé !