En tant que praticien du marketing digital dont l’optimisation de la visibilité sur le Web (SEO et son cousin GEO), créateur de contenu éditorial (rédacteur d’articles sur tout support web et socialmedia), utilisateur raisonné de l’IA générative, quelles sont à la fois ma responsabilité et mon risque… au regard de l’évolution actuelle des usages professionnels et personnels ?
En d’autres termes, comme l’exprime sans détour Cindy Krum dans une longue réflexion partagée sur le site spécialisé Search Engine Land, sous le titre évocateur Exploring the real risk AI brings to the internet (and SEO with it), chemine-t-on vers la mort prochaine d’Internet, en référence à The dead internet theory, au fur et à mesure que le contenu généré par IA générative s’accumule de site en site, contribuant potentiellement (et certainement) à des boucles d’apprentissages qui deviennent in fine totalement artificielles. Ce scénario pourrait aboutir à « des bots qui communiquent entre eux et […] à des bots qui consomment du contenu créé par d’autres bots. […] Les contenus, conversations et interactions humaines authentiques sont relégués au second plan, voire noyés sous l’effet des bots, jugés plus performants et productifs ». Dystopique !

Du contenu éditorial plagié de boucle en boucle d’IA générative
Nous en revenons aux créateurs du contenu initial, plagié de boucle en boucle générative, sans mention ni évidemment de rémunération puisque la captation de la valeur créée par autrui, pour la monétiser à leur profit exclusif, est la clé de voûte du business model des GAFAM ! L’avenir sombre qui s’annonce(rait) alors est / serait celui de la disparition progressive du contenu original (pourquoi écrire si je ne suis cité ni ne reçoit de trafic en retour ?), pensé et écrit par des humains, au bénéfice d’un contenu moyen car probable (les LLM sont des modèles statistiques). Cela avec de moins en moins de diversité et de pensée critique.
Vers toujours plus d’enfermement algorithmique
L’IA agentique et la capacité à nous enfermer toujours plus dans des écosystèmes technologiques propriétaires (Comet et Atlas, les navigateurs de Perplexity et ChatGPT, en sont l’illustration pour concurrencer Google x Gemini et le Mode AI que nous attendons encore en France), les algorithmes de préconisation déjà connus (des réseaux sociaux aux plateformes de streaming) qui nous confortent dans nos propres choix… la crainte existentielle est celle d’un enfermement croissant dans une bulle de plus en plus hermétique au bruit de l’extérieur… pour ne pas troubler cette quiétude entretenue à dessein.

Quels risques pour notre libre arbitre ?
« Lorsque plusieurs sources traitent un sujet de manière identique et présentent des faits ou des idées similaires, les modèles linguistiques peuvent présumer d’un consensus et choisir les sources à citer. Cette capacité à choisir les sources à citer confère à tout modèle linguistique un pouvoir subversif important, lui permettant de prendre des décisions arbitraires de façon potentiellement erronée, biaisée et/ou opaque » alerte justement Cindy Krum dans l’article cité.
Notre responsabilité se trouve probablement dans cette zone d’alerte…
« L’IA est le résultat d’une concentration des pouvoirs »
Dans une interview récente publiée par Grand Continent, Meredith Whittaker, ex-Google (2006/2019), Présidente de Signal Messenger met ainsi en perspective notre monde numérique mais aussi nos propres contradictions ou les limites qui nous contraignent au risque d’être socialement exclu puisque nous publions régulièrement sur des réseaux sociaux, propriétés de Meta (Facebook, Instagram), de Microsoft (Linkedin), etc…
« L’IA a été faussement présentée comme une innovation scientifique, alors qu’elle est en réalité le résultat d’une concentration de pouvoir » estime Meredith Whittaker après avoir retracé l’histoire récente de l’intelligence artificielle. Le passage sur l’évolution de l’algorithme de Youtube, en mode deep learning, et la mise en avant des contenus à fort engagement pour favoriser la publicité est signifiant :
« Ce dont nous parlons, c’est d’une forme politique et économique de captation du marché fondée sur un modèle commercial de surveillance et une concentration du pouvoir qui s’appuie sur les effets de réseau. C’est ce modèle qui a rendu un certain type d’IA à nouveau pertinent. »
Une dépendance avérée au cloud US
Sur le plan géopolitique, quand AWS, Azure et Google, trois entités US, détiennent 63% du marché mondial des infrastructures cloud, le risque de concentration excessive est avéré. Et quand les infrastructures Amazon tombent partiellement en panne, comme le 20/10/25, cette dépendance nous est cruellement rappelée.
« La position dominante et hégémonique de ces acteurs a des conséquences. Elle est stratégique pour le gouvernement américain. Avec une question : si la bulle éclate, l’État fédéral la regonflera-t-elle en renflouant les caisses de ces entreprises ? Je n’ai pas la réponse » avoue Meredith Whittaker. Avec une référence appuyée (voir le titre du papier) à la pressentie bulle IA et au modèle d’économie circulaire au sein duquel « les fabricants de puces et géants du numérique investissent dans les compagnies d’IA pour qu’elles achètent leurs produits ou louent leurs serveurs » : Open AI, l’éditeur de ChatGPT, étant au centre du jeu, fort de sa capitalisation boursière à 4400 millards $.
Le profit est l’objectif… et non le bien commun
Si le profit est l’objectif, plus que le bien commun, on le comprend, « la volonté désespérée de trouver le marché qui satisfera les investisseurs et d’atteindre le seuil de rentabilité conduit à des choix de plus en plus imprudents : nous sapons nos infrastructures de base en nous en remettant partout à des modèles de langage (LLM) qui ne sont pas sûrs » alerte Meredith Whittaker au sujet de la foi commune dans les plateformes LLM, devenues tant des substituts de moteurs de recherche que des compagnons ou confidents.
A lire in extenso et à rapprocher de l’interview L’intelligence artificielle contre la démocratie donnée par Gilles Babinet dans la revue Etudes. Les plus audacieux peuvent également se lancer à l’attaque de l’article de recherche The Open Prison of the Big Data Revolution: False Consciousness, Faustian Bargains, and Digital Entrapment, co-signé par Frantz Rowe, enseignant-chercheur à l’IAE Nantes.
La poursuite des logiques d’emprise sur le web
Dans l’introduction de son article L’autorité sans l’auteur : l’économie documentaire du web selon Google, paru en 2018, Antoine Bonino écrit : « Nous espérons repérer la manière dont les logiques réifiées par les architextes du moteur de recherche de Google sont réfléchies dans leur emprise sur l’ordre documentaire du web et, partant, mettre au jour le feuilletage des médiations qui retourne l’algorithmique de l’autorité en autorité algorithmique. »
Il poursuit : « Aussi s’agira-t-il d’analyser dans quelle mesure la définition de l’autorité incorporée à l’algorithme de classement du moteur de recherche et instrumentalisée en vue de la qualification automatique des documents indexés contribue – ne fût-ce que symboliquement – à la construction de l’autorité du dispositif médiatique lui-même. »
Le nouvel épisode d’une (r)évolution permanente
A relire ce texte, l’intrusion fracassante des plateformes IA LLM dans l’univers de la recherche sur le Web, peut s’interpréter comme le nouvel épisode d’une évolution numérique permanente :
- Technologies x usages x modèles économiques
Rien ne change, tout se transforme.
Le SEO étant peu traité sur le plan académique, les cadres théoriques manquent. Dans sa thèse (septembre 2025), La professionnalisation du référencement web au prisme de l’outillage de la formation (P.R.O.F.), Clémentine Fruchard Muller (re)contextualise le sujet : « À l’heure où Internet constitue la principale porte d’accès au savoir pour des milliards d’individus, la question de la visibilité et de l’accessibilité de l’information s’impose comme un enjeu démocratique. Les moteurs de recherche, et particulièrement Google avec sa position hégémonique, sont devenus les gardiens de l’information numérique, décidant ce qui sera visible ou invisible dans l’espace public du Web. »
Le fait que ChatGPT ou Perplexity scrapent les résultats de recherche (SERP) de Google pour nourrir leurs réponses confirment ce statut de nœud central de la firme de Mountain View. Google détient l’index comme le décrivait fort justement Fabien Faceries dans un récent carrousel sur Linkedin, inspiré du vol du Louvre : Le casse du siècle.
Les enjeux de l’économie politique de la visibilité
Pour citer à nouveau Clémentine Fruchard Muller (qui a mené une étude de cas sur l’outil d’optimisation SEO Your text Guru) : « Les enjeux dépassent largement le cadre technique pour s’inscrire dans une économie politique de la visibilité. En effet, les pratiques de référencement peuvent soit renforcer les biais algorithmiques et la concentration de l’attention sur les acteurs dominants, soit contribuer à une diversification des sources et à une démocratisation de l’accès aux savoirs. »
« The same but different » pourrait-on résumer pour faire le lien avec les propos d’Alex Moss in Search Engine Journal, quand il évoque l’impact de l’IA générative sur le SEO technique : « Il reste le même, et les attributs pris en compte par les agents sont similaires à ceux que nous optimiserions si les LLM n’existaient pas. »
Google reste à la croisée de tous les chemins
Quand les articles de blog SEO et GEO parlent d’optimisation multicanal du contenu pour les plateformes IA génératives et de citations par les LLM depuis les sites UGC (user generated content) comme l’un des canaux préférentiels de visibilité… le mécanisme à l’œuvre n’est, ni plus ni moins, que celui de la spoliation de l’auteur initial au profit de toute la chaîne d’acteurs numériques.
La plainte de Reddit (leader de l’UGC) à l’encontre de Perplexity et de trois éditeurs de scrapers, déposée le 22/10/25 à New-York, apparaît en cela emblématique de la chaîne de dépossession globale qui est à l’œuvre. Résumé de l’affaire en cours :
- Reddit accuse Perplexity de scraper illégalement le contenu de sa plateforme pour alimenter ses réponses IA générative
- Mais Reddit dispose, par ailleurs, d’un accord de licence avec OpenAI (éditeur de ChatGPT) et Google qui ont accès aux conversations UGC pour alimenter leurs propres AI sans que les contributeurs Reddit (donc les auteurs) ne soient rémunérés
- Dans sa plainte, Reddit indique que Perplexity passerait notamment par le scrap des SERP Google pour arriver à ses fins, un piège ayant été tendu par le premier au second pour le démontrer
Quoique que l’on fasse ou dise, Google est donc à la croisée de tous les chemins.
Accélérer pour croître sans se préoccuper des dégâts
Au regard des enjeux financiers, Perplexity a répondu depuis Reddit sur le terrain idéologique, celui du Web ouvert où l’accès à la connaissance est possible pour chacun d’entre nous… même si les gains espérés disent tout le contraire. « Les transgressions calculées d’Open AI » lors du lancement récent de Sora, pour reprendre le titre d’un article du Monde sur le sujet, montrent à quel point la doxa de Facebook reste dominante : « Move Fast and Break Things ».
La fin (ou la faim de dollars) justifie toujours les moyens.
L’affaire Reddit vs Perplexity illustre bien que la cascade d’extraction du contenu n’est pas unique mais successive et cumulative :
- Chaque acteur s’approprie la valeur créée par le précédent
- Les créateurs originaux sont les plus éloignés de la monétisation finale
- Chaque niveau d’extraction amplifie la dépossession de l’émetteur initial
Notre dépossession est double :
- Comportementale par l’analyse de nos données (dont celles de navigation)
- Sémantique par l’aspiration de notre contenu original, mixé à l’infini dans les boucles de réponses génératives par les IA LLM pour aller jusqu’à une forme de « bouillie » de contenu « aplati » pour citer à l’excellent article LLMs Don’t Reward Originality, They Flatten It par Despina Gavoyannis
Une économie de la création de contenu est-elle viable ?
Qui crée, qui s’approprie, qui disparaît ? L’IA générative peut-elle coexister avec une économie de la création de contenu durable ? Faut-il aller vers une économique politique de la création web ?
A moins qu’il ne soit (probablement) trop tard à l’aulne du mépris général des IA génératives quant à tout droit d’auteur…
Pierre Minier
Cet article résulte de la synthèse de trois chroniques personnelles publiées sur Linkedin.
Vous pouvez également suivre la newsletter Search 2.0 à l’ère de l’IA


