
ChatGPT cite Grokipédia comme source... et c'est un problème
L'autre jour, je testais les capacités de raisonnement de la dernière version de ChatGPT sur un sujet politique un peu épineux. J'ai scrollé jusqu'aux références pour vérifier les faits, une habitude de développeur qui se méfie des "Boites noires". Là, surprise : une citation provenait de Grokipédia.
Pour un néophyte, ça semble juste être une encyclopédie de plus. Mais pour ceux qui suivent la tech, c'est un signal d'alarme. Grokipédia est le projet concurrent de Wikipedia porté par xAI, la société d'Elon Musk. Voir ChatGPT l'utiliser comme source légitime soulève un problème technique et éthique majeur : celui de la manipulation des modèles et de la perte de repères fiables. On fait le point.
Grokipédia, c'est quoi exactement ?
Avant de comprendre pourquoi c'est gênant, il faut remettre le contexte. Grokipédia a été lancé fin octobre 2025 par xAI. L'idée de Musk est simple : il estime que Wikipedia souffre d'un biais idéologique de gauche et d'une censure excessive. Il a donc créé une alternative "ouverte", générée principalement par son IA, Grok.
Concrètement, Grokipédia ne fonctionne pas comme Wikipedia et sa communauté de bénévoles humains. Ici, le contenu est produit par une IA. On y trouve des articles entièrement rédigés par Grok, ou des contenus copié-collés de Wikipedia et modifiés. C'est une encyclopédie "top-down", contrôlée par une entreprise privée, et non par une communauté.
Le piège du cannibalisme de l'IA
Le premier problème est technique. Le fait que ChatGPT considère Grokipédia comme une source d'autorité crée un risque immédiat de feedback loop (boucle de rétroaction). Imaginez le schéma suivant :
1. Les modèles d'IA comme GPT-4 ont été entraînés en grande partie sur Wikipedia.
2. Grok a aussi ingéré Wikipedia pour créer Grokipédia.
3. ChatGPT utilise maintenant Grokipédia comme source pour répondre aux utilisateurs.
On finit par avoir de l'IA qui recycle de l'information provenant d'une autre IA. On s'éloigne de la source humaine originelle. Et si Grokipédia introduit des erreurs ou un biais politique délibéré, ChatGPT va les amplifier naïvement, pensant avoir trouvé une "source fiable".
Le risque caché : le "LLM Grooming" et le blanchiment d'info
Cependant, il existe une menace plus sournoise que la simple erreur technique : le "LLM grooming" (ou manipulation de modèle). Des experts en désinformation comme Nina Jankowicz attirent l'attention sur ce danger réel.
Le problème central est le cycle de légitimation. Puisque le grand public perçoit ChatGPT comme une autorité technologique neutre, le simple fait qu'il cite Grokipédia suffit à donner une aura de respectabilité à cette plateforme, même si elle héberge des contrevérités.
En voyant la citation dans l'interface, l'utilisateur suppose que l'IA a vérifié le contenu. C'est un mécanisme de blanchiment d'information toxique. Un mensonge ou un biais politique part d'une source douteuse, traverse le filtre "impartial" de l'IA, et finit par être accepté par le lecteur comme une vérité établie.
Wikipedia reste la référence, mais pour combien de temps ?
Il ne faut pas paniquer : Wikipedia reste toujours la source numéro 1 de ChatGPT. Une étude récente montrait que près de 48 % des citations proviennent encore de l'encyclopédie libre. C'est logique, c'est structuré, vérifié et ça sent bon l'effort collaboratif humain.
Cependant, l'arrivée de Grokipédia dans les sources de ChatGPT montre une dérive. Les modèles d'IA cherchent la "fraîcheur" de l'information et la diversité des points de vue. Grokipédia, étant alimentée en temps réel par Grok, a cet avantage de "fraîcheur" artificielle. Mais fraîcheur ne veut pas dire vérité.
Mon avis : la vigilance est de mise
Je suis un grand passionné de tech et d'IA, je ne suis pas là pour faire de la technophobie. Mais l'utilisation de Grokipédia par ChatGPT illustre parfaitement une faille dans la manière dont les grands modèles traitent l'information : ils ne "comprennent" pas la crédibilité éditoriale, ils ne font que de la prédiction statistique de mots.
Si une source (Grokipédia) utilise un ton assertif et des mots-clés pertinents, ChatGPT la jugera utile, peu importe sa fiabilité réelle. C'est le problème du Garbage In, Garbage Out.
Concrètement, si vous voyez Grokipédia cité dans une réponse de ChatGPT :
- Prenez du recul. Ne considérez pas l'information comme acquise.
- Vérifiez sur Wikipedia ou des médias traditionnels si l'info existe ailleurs.
- Comprenez le contexte. Grokipédia est un outil politique et commercial d'Elon Musk, pas une œuvre encyclopédique désintéressée.
L'IA est un outil incroyable pour synthétiser, mais elle devient un caisse de résonance dangereux si on la laisse puiser dans des sources qui servent des agendas cachés.
Sources
- Latest ChatGPT model uses Elon Musk's Grokipedia as source, tests reveal – The Guardian : Article fondateur sur la découverte de l'utilisation de Grokipédia par le modèle GPT-5.2 de ChatGPT.
- Grokipédia – Wikipedia : La page Wikipedia sur Grokipédia elle-même, qui documente de manière factuelle la nature et les critiques du projet d'xAI.
- ChatGPT Mostly Source Wikipedia; Google AI Overviews – Search Engine Roundtable : Une étude montrant la domination écrasante de Wikipedia comme source (47,9 %) face à d'autres plateformes.
Qu'est-ce que le "LLM Grooming" ?
Le "LLM Grooming" désigne la manipulation ou l'influence d'un modèle de langage (comme ChatGPT) pour qu'il privilégie certaines sources ou narratives. Cela peut être utilisé pour légitimer des fausses informations en exploitant la confiance des utilisateurs envers l'IA.
Pourquoi le fait que ChatGPT cite Grokipédia est-il dangereux ?
C'est dangereux car cela crée un "blanchiment d'information". En citant Grokipédia, ChatGPT donne une crédibilité indue à des contenus potentiellement biaisés ou faux, faisant croire à l'utilisateur qu'ils ont été validés par une technologie neutre.
Qui est Nina Jankowicz ?
Nina Jankowicz est une experte reconnue en désinformation et en information stratégique. Elle attire l'attention sur les risques liés à l'utilisation de l'IA pour propager de fausses informations et sur la vulnérabilité des modèles face à la manipulation.
Quelle est la différence principale entre Wikipedia et Grokipédia ?
Wikipedia est éditée par une communauté humaine bénévole avec des processus de vérification transparents. Grokipédia est générée par l'IA de xAI, est contrôlée par une entreprise privée (Elon Musk) et son processus éditorial est opaque, ce qui pose des questions de neutralité.





