Synthèse des publications SEO et GEO partagées sur Linkedin entre mi-novembre et début décembre 2025 avec la reprise de l’ensemble des liens complémentaires ajoutés dans les commentaires. Sept articles à (re)lire alors que le rythme de la transformation du web ne cesse de s’accélérer sous la pression de l’IA générative. S’agit-il d’un changement de paradigme et/ou d’une itération des BigTech en recherche de nouvelles sources de profitabilité ? La réalité est probablement entre les deux voire le cumul des deux… Les usages de la recherche se déportent vers les plateformes IA comme ChatGPT et Perplexity. Mais Google continue à drainer la part majoritaire du trafic vers les sites. Est-ce une phase transitoire… annonciatrice de la destruction créatrice de nouvelles valeurs ? Entre le classement dans les moteurs de recherche classiques (Google) et la capacité à être cité dans les réponses génératives des IA, la visibilité globale d’une marque serait aujourd’hui le nouvel indicateur du succès.
Un lexique complet des acronymes et anglicismes est disponible en bas de page.
Au sommaire de cette chronique n°2 :
- IA générative et recherche sur le web : le paradoxe de l’incohérence
- Un outil de l’IA réceptivité des salariés pour les dirigeants
- Audit web et SEO : les fondamentaux tiennent toujours
- Anticipation : va-t-on vers la fin du web html ?
- Interview d’Eric Sadin : IA, un risque existentiel pour l’Homme ?
- Comment le comportement de recherche sur le web des utilisateurs évolue-t-il ?
- Protéger les droits des auteurs contre les IA extractivistes
IA générative et recherche sur le web : le paradoxe de l’incohérence
Le paradoxe de la cohérence (ou incohérence) de l’IA générative dans le contexte de la recherche sur le Web : c’est le thème d’un article de Duane Forrester depuis son blog Decodes sur Substack (23/11/25).
Nous avons tous fait l’expérience de réponses variables d’une même IA générative à une question identique posée plusieurs fois à des jours différents, dans un fil de discussion isolé ou dans un projet, selon que l’option mémoire des conversations soit activée ou non… et, bien sûr, en sollicitant des plateformes différentes (ChatGPT, Claude, Perplexity, Gemini 3…).
Au moins trois raisons, selon l’auteur, à ces observations :
- Le caractère probabiliste des modèles dits LLM qui ne récupèrent pas une information complète, comme Google dans son index, mais la prédisent (ou la génèrent) au mot le mot par probabilités
- La dépendance au contexte : même si l’historique de votre navigateur influence vos recherches à venir, rien de commun avec les échanges multiples et variés, de nature conversationnelle, que l’on peut avoir avec une IA générative. Comme le note Duane Forrester : « Plus la conversation s’approfondit, plus le contexte s’accumule et plus les réponses risquent de dévier » voire, comme observé à titre personnel, de parfois restreindre le champ des possibles. Ce phénomène semble encore plus prégnant quand on travaille en mode Projet avec des conversations qui viennent se percuter.
- Ce qui amène au 3e point : la discontinuité temporelle. « L’historique des conversations ne récupère que ce qui semble pertinent, et non l’intégralité des informations pertinente ! » Y compris s’il y a des documents en RAG
Résultat, pour une marque cherchant à optimiser sa visibilité dans les conversations IA (GEO), cette capacité à être citée n’est pas stable ni encore maîtrisée. Rien de commun avec une position Google dans une SERP selon une intention identifiée. Si l’on considère le GEO comme une surcouche GEO, il n’y a pas une évolution du paradigme mais deux paradigmes se superposant.
Trois piliers proposés pour tendre vers la récurrence de la citation IA :
- Un contenu clair faisant autorité qu’une IA sera en mesure d’extraire quelque soit le contexte (description claire, chuncking, données structurées…)
- Optimisation en intégrant les requêtes en éventail (Fan Query-Out) et aussi en testant des chaînes de questions à travers plusieurs instances de conversation et selon plusieurs plateformes IA
- Compléter la mesure de la fréquence des citations par celle de la stabilité de ces mêmes citations (fond/forme)
« L’objectif passe d’un contenu exhaustif à un contenu adaptable au contexte. […] Il ne s’agit plus de couvrir un large éventail de mots-clés, mais de développer une profondeur sémantique qui résiste aux variations du contexte » écrit Duane Forrester.
Un outil de mesure de l’IA réceptivité des salariés pour les dirigeants
A lire dans la Revue Entreprendre Et Innover, cet article de Laurent Le Feuvre. autour de l’acceptabilité de l’intégration d’un système d’intelligence artificielle dans les PME. Son point de départ : l’ouvrage de Cécile Dejoux (« Ce sera l’IA et/ou moi »), publié en 2020, où celle-ci « définit l’IA compatibilité comme la combinaison d’une acculturation collective à l’IA et de l’intégration du SIA dans l’entreprise ».
Tout en précisant « que plus un salarié deviendra « IA compatible », plus il devra développer des « compétences de centrage » définies par l’attention, la mémoire, le temps, le stress et l’identité. »
L’auteur propose un indicateur d’IA réceptivité pour permettre « au dirigeant d’évaluer le rapport à l’IA d’un salarié ». Son étude quantitative et qualitative est fondée sur un questionnaire et des observations. Il prévient : « Mon étude, basée sur des déclarations de salariés, ne peut constituer une base suffisamment fiable en tant qu’outil d’évaluation. Cependant, elle offre la possibilité de supposer certains phénomènes. »
Une matrice OPEN de l’IA réceptivité en entreprise
Le niveau d’IA réceptivité d’un salarié est défini par la combinaison de son niveau de connaissances IA et intérêt personnel pour le projet de transformation IA de l’entreprise.
Une matrice OPEN à 4 cadrans est posée :
- Opposant initié
- Partisan
- Enthousiaste non initié
- Non concerné
Depuis son questionnaire et observations, Laurent Le Feuvre dresse trois catégories :
- le salarié connaît le terme IA et dispose de quelques notions de base concernant son fonctionnement
- le salarié sait comment fonctionne l’IA et est capable d’en identifier certains cas d’usage
- le salarié est en mesure d’identifier les forces et limites des interactions entre l’homme et l’IA
Parmi les enseignements significatifs :
- 49,17 % considèrent que leur activité sera davantage surveillée avec l’arrivée de l’IA
- 56,66 % pensent qu’ils vont perdre une partie de leur savoir-faire
- les connaissances en IA se révèlent être principalement corrélées au statut des individus ainsi qu’à leur niveau de diplôme
- l’intérêt individuel pour un projet en IA est, lui aussi, principalement lié au statut, suivi du niveau de diplôme et de l’âge
L’article aborde en conclusion l’un des sujets RH centraux : « La gestion des employés dont le métier va être transformé par l’IA ». Et l’intérêt opérationnel de l’indicateur IA-réceptivité pour permettre « au dirigeant d’appréhender le niveau d’effort à fournir en vue de la transformation IA de son entreprise ».
L’étude met en avant l’importance de la formation : « Plus le niveau de connaissances IA d’un salarié augmente, plus la peur de l’IA a tendance à diminuer et plus son intérêt individuel augmente ». Avec la capacité à non pas former à l’IA une fois celle-ci en cours de déploiement dans l’organisation, mais en amont du projet « afin d’éviter le développement d’un endogroupe de salariés « non concernés » par le projet de transformation vers l’IA ».
Audit web et SEO : les fondamentaux tiennent toujours
Un audit SEO classique repose sur 3 piliers : technique, contenu, liens (maillage interne, backlinks). C’est l’approche traditionnelle pour scorer dans les résultats de recherche Google et, dans le même temps, cocher les bonnes cases d’une approche la plus numérique responsable possible : une page légère se charge vite et réduit son impact CO2, des attributs alt renseignés pour les images sont tout autant une bonne pratique en matière de référencement naturel que d’accessibilité.
« L’infrastructure de recherche de Google est extrêmement sophistiquée et exploite un éventail de signaux bien plus large que celui des robots d’exploration IA actuels. L’effet cumulatif de tous ces signaux peut masquer ou compenser de faibles lacunes techniques. Par exemple, une page avec un contenu bien optimisé, un balisage de schéma robuste et une autorité convenable peut toujours être mieux classée que celle d’un concurrent, même si votre page se charge légèrement plus lentement » explique Reza Moaiandin, dans un article dédié (Search Engine Journal, 17/11/25).
Traiter la dette technique d’un site web pour une performance SEO et GEO
« La plupart des robots d’exploration IA ne fonctionnent pas ainsi. Ils suppriment le code, la mise en forme et le balisage de schéma (JSON-LD) pour n’ingérer que le texte brut, poursuit-il. Avec moins d’autres signaux pour équilibrer le tout, tout ce qui entrave l’accès du robot à votre contenu aura un impact plus important sur votre visibilité auprès des IA. Votre dette technique ne pourra plus se dissimuler. » C’est rassurant, les fondamentaux du Web tiendraient toujours.
Ce qui remettrait donc le bon vieil audit SEO au centre du jeu, en lui adjoignant désormais une composante GEO pour la surcouche de citations par les IA génératives et visibilité d’une marque dans les réponses des plateformes LLM comme Gemini 3.
Anticipation : va-t-on vers la fin du Web html ?
Vision prospective de l’évolution du Web html sous la pression de l’IA agentique… c’est le scénario proposé par Mario Fischer dans un article in Search Engine Land (14/11/25). Entre constat (il devient de plus en plus facile d’obtenir une réponse à une question, type comparatif de produits, en utilisant ChatGPT plutôt que Google) et prophétie (la proposition de l’auteur de remplacer le html par une structure de données 100% conçue pour les machines et les requêtes AI, structure qu’il nomme AIDI), que celle-ci soit le futur ou non, Mario Fischer dresse un inventaire croisé des usages et de la technique.
Avec un constat, l’acteur historique et dominant, soit Google, dispose d’un actif unique : l’index.
L’uniformisation du goût induit par par les logiques algorithmiques
Autre point de vue, du Web transactionnel à l’art et l’esthétique, celui de l’historienne Valentina Tanni in Le Monde (13/11/25) qui évoque « l’uniformisation du goût » induit par les logiques algorithmiques des plateformes. Par exemple, en matière de décoration avec le style Airbnb.
« Les systèmes de recommandation reposant sur des algorithmes ont tendance à amplifier la visibilité de certains types de contenus et à les transformer en standards de référence » explique-t-elle.
Elle poursuit et les nostalgiques qui ont connu l’expression surfer sur Internet apprécieront : « Mais le Web, c’est-à-dire l’Internet d’avant les plateformes, celui des pages connectées entre elles par des liens hypertextes, au contraire, a favorisé l’émergence d’un nombre incalculable d’intérêts de niche et mis en évidence leur diversité. En ligne, on trouve des communautés constituées autour de passions et d’intérêts communs extrêmement hétéroclites. La popularisation d’Internet a profondément remis en question la domination culturelle du mainstream, en facilitant l’émergence de subcultures. […]
Peu de gens s’autorisent aujourd’hui à nager à contre-courant des contenus recommandés, ce qui conduit à l’émergence du style global. C’est le produit d’un mécanisme spécifique : la logique de viralité, née dans l’écosystème numérique, et qui contamine désormais le monde physique.
[…] La rhétorique selon laquelle l’IA permettrait une « explosion de la créativité » est une tactique marketing. L’objectif réel est de construire de nouvelles plateformes médiatiques remplies de contenus créés par IA pour accumuler des « vues » et générer des revenus – créant du même coup de nouveaux espaces publicitaires qui pourront être vendus massivement. »
Laissons la conclusion à Mario Fischer : « Actuellement, le web se remplit à une vitesse fulgurante de contenus générés par l’IA. Au moment où j’écris ces lignes, une start-up affirme pouvoir générer automatiquement jusqu’à 3000 podcasts par semaine. Qui va consommer tout ça ? »
Interview d’Eric Sadin : IA, un risque existentiel pour l’Homme ?
« Quel sera notre rôle sur Terre dans un monde où toutes nos fonctions auront été déléguées à des intelligences artificielles ? » interroge Blaise Mao, rédacteur en chef d’Usbek & Rica, en introduction de son interview d’Eric Sadin (01/11/25) dont le dernier essai prend pour titre « Le désert de nous-même ».
« Nous en arrivons à nous enthousiasmer de ne plus nous ériger comme des êtres parlants pour nous en remettre à des machines produisant du verbe ou, plus précisément, un pseudo-langage fondé sur des équations statistiques cataloguées » estime le philosophe… cette forme de dynamique du vide accepté nous propulsant à grande vitesse vers le « désert » évoqué.
En tant qu’utilisateur (curieux, critique, volontaire ou poussé par l’injonction… le spectre est large), quel est notre statut, notre rôle dans ce jeu planétaire aux enjeux financiers qui nous dépassent ? Eric Sadin, pour citer à nouveau le chapeau du papier d’Usbek et Erika, pointe une « coalition d’intérêts » à laquelle il nous associe « nous tous, les milliards d’utilisateurs de ces IA génératives » aux côtés de trois autres composantes : la tech, les politiques et les entreprises.
Les humains y trouvent, selon lui, « une facilitation de leur existence, distraction continue et, dorénavant, l’occasion de ne plus exercer leurs facultés fondamentales, au premier rang desquelles celles de parler et d’écrire à la première personne ». Estimant la « responsabilité collective », cela le pousse donc à « rejeter le concept de « technofascisme » aujourd’hui en vogue dans le champ technocritique ».
Pour prolonger la réflexion, lire également via Le Monde : « En abandonnant l’écriture à l’IA, nous risquons de nous empêcher de réfléchir » par Corentin Lamy.
Comment le comportement de recherche sur le web des utilisateurs évolue-t-il ?
Au fil des projets clients Ouest Médias et de la veille quotidienne, nous comprenons progressivement l’évolution du comportement des utilisateurs quant à la recherche sur le Web entre questions posées aux plateformes IA LLM (ChatGTP, Perplexity) et celles aux moteurs de recherche (Google). Avec le Mode AI de Google, non encore disponible en France mais déployé en Europe, c’est même du « all in one ».
« Ce n’est pas la fin du SEO, c’est un nouveau chapitre. Les fondamentaux restent importants, mais la stratégie doit évoluer », écrit Mateusz Makosiewicz sur le blog Ahrefs (11/11/25), entre la prise en compte des requêtes en éventail (Query Fan-out), la perte de clics pour les sites Web lors de recherches informationnelles, soit le haut de l’entonnoir de conversion ie la phase de découverte, largement couverte par les réponses synthétiques des IA génératives et l’importance stratégique, par voie de conséquence, du bas de l’entonnoir (les requêtes commerciales et transactionnelles).
« Lorsque les utilisateurs savent déjà ce qu’ils veulent acheter ou quelle marque ils préfèrent, les outils d’IA affichent généralement des résultats de recherche traditionnels au lieu de les résumer ou de les remplacer » poursuit-il.
Le contenu partagé sur les réseaux sociaux (UGC) devient un élément de visibilité à part entière
Les experts semblent s’accorder sur le fait que « l’optimisation générative pour les moteurs de recherche (GEO) représente la prochaine étape de l’évolution du référencement naturel, portée par l’essor de l’IA. […] Cela ne signifie pas que le GEO remplace le SEO car le premier repose sur les fondements du second. La différence réside dans le lieu et la manière dont la visibilité est acquise. Les résultats de recherche et d’IA puisent dans des sources de contenu similaires, mais la façon dont ils les présentent et les synthétisent peut considérablement varier. »
Le point peut-être majeur de l’évolution est la place des plateformes tierces (type User Generated Content comme Reddit) et socialmedia (comme LinkedIn). Auparavant, les réseaux sociaux étaient considérés comme des canaux de partage et diffusion secondaire d’une URL Web pour mieux faire converger le trafic vers le site émetteur.
Aujourd’hui, une publication sur Reddit et/ou LinkedIn devient un élément de visibilité à part entière, de nature à renforcer la capacité à être repéré puis cité par ChatGPT et/ou Perplexity. Cela vaut également pour Youtube, Pinterest voire TikTok, faisant office de moteur de recherche pour les plus jeunes (GenZ).
Faut-il envisager de basculer vers une tactique SevO (Search Everywhere Optimization) en mode multicanal ? A considérer selon l’offre (produits, services), le marché B2C ou B2B, les enjeux commerciaux (ainsi que les moyens disponibles) selon la stratégie commerciale et marketing. Le tout en ne cédant pas à la tentation de l’automatisation à 100% de la production de contenu (voir le carrousel de Fabien Faceries sur le sujet et les risques de pénalités Google).
Protéger les droits des auteurs contre les IA extractivistes
Tribune de Primavera De Filippi, directrice de recherche au CNRS, dans les colonnes du Monde (06/11/25). Elle traite de la plainte visant Apple en Californie. Le document, indique qu’Apple aurait mobilisé « Books3, un ensemble de données contenant des livres piratés protégés par le droit d’auteur, qui comprend les œuvres publiées des plaignants et du groupe. Apple a utilisé Books3 pour entraîner ses modèles linguistiques OpenELM. Apple a également et probablement entraîné ses modèles linguistiques de base à l’aide de ce même ensemble de données piratées ».
L’affaire Books3 reproduit à une large échelle ce qui s’est déjà produit avec le streaming pirate audio puis vidéo : « Tous les créateurs de contenus sont [désormais] concernés : écrivains, journalistes, chercheurs, photographes, scientifiques… Leur travail est réduit au statut de « donnée brute », de ressource à exploiter librement. »
« Certains invoquent le fair use, ou « utilisation équitable », comme exception au droit d’auteur. Mais peut-on vraiment parler d’usage « équitable » quand il s’agit d’une ingestion industrielle et systématique de contenu piraté, dans le but de créer des produits commerciaux valant des centaines de milliards de dollars ? Le procès contre Apple devra répondre à cette question. »
Passer d’une modalité d’extraction du contenu sur le web à une modalité de transaction
« Il est donc urgent de passer d’une modalité d’extraction à une modalité de transaction […] un système où lorsqu’une IA utilise un article scientifique pour formuler une réponse, qu’elle s’inspire du style d’un auteur ou qu’elle synthétise une dépêche de presse, l’utilisation soit tracée et qu’une micro-compensation soit versée au créateur. La valeur est ainsi redistribuée aux personnes responsables pour la création de cette valeur. »
Pour l’auteure : cette affaire représente « l’opportunité de tourner la page du far west numérique et prouver que l’innovation peut rimer avec rémunération. Les gagnants de demain ne seront pas ceux qui auront amassé la plus grande quantité de données piratées, mais ceux qui auront su tisser les alliances les plus solides avec les créateurs de contenus ». S’agit-il d’un vœu pieux ?
Cette tribune à rapprocher d’un 2e article, également issu du Monde : l’interview de la politiste Amy Greene. A la question de la puissance des GAFAM et du rapport des géants de la tech US avec le pouvoir américain, elle répond : « Les cadres financiers et judiciaires ne s’appliquent pas à eux de la même façon, et ils se distinguent par une présence poreuse dans toutes les sphères de la vie – individuelle et collective, personnelle et professionnelle, publique et privée. La présidence Trump accorde une importance particulière à l’IA. Son objectif est de gagner la bataille mondiale de cette « intelligence » et d’en fixer les règles. Pour ce faire, le président cherche à aller vite avec le moins de barrières réglementaires possible. »
Lexique des termes et acronymes utilisés
- SEO : Search Engine Optimization (optimisation du référencement naturel ou organique)
- GEO : Generative Engine Optimization (optimisation de la visibilité d’une marque dans les citations des moteurs de recherche IA comme ChatGTP ou Perplexity)
- IA : Intelligence Artificielle
- LLM : Large Language Models (grands modèles de langage comme ceux utilisés par ChatGPT : modèles d’apprentissage automatique fondés sur l’analyse et la mémorisation d’immenses volumes de données)
- RAG : Retrieval Augmented Generation (génération à enrichissement contextuel)
- Chunk : portion de contenu au sein d’une page web destiné à favoriser l’extractibilité de ce contenu par les robots IA pour optimiser les chances d’être cité dans une réponse (technique GEO)
- Query Fan-Out : technique d’extension d’une requête en sous-requêtes pour couvrir l’ensemble du champ sémantique de la requête (lire l’article de Julien Gourdon sur le sujet)
Pierre Minier


