ChatGPT et autres IA citent Grokipédia malgré ses erreurs

Publié le 31 January 2026 | Traduit de l'espagnol
Captura de pantalla mostrando una respuesta de ChatGPT donde se cita como fuente a Grokipedia, con un recuadro rojo destacando la referencia.

ChatGPT et autres IA citent Grokipedia malgré ses erreurs

Les principaux assistants conversationnels propulsés par intelligence artificielle, y compris ChatGPT, Google Gemini et Microsoft Copilot, intègrent fréquemment des références à Grokipedia. Cette encyclopédie, créée de manière autonome par xAI, la société d'Elon Musk, manque de supervision humaine. Des données récentes révèlent que sa présence dans les réponses des IA s'est multipliée, générant l'alerte parmi les spécialistes en raison du potentiel de propagation d'informations incorrectes. 🤖⚠️

La présence croissante de Grokipedia dans les réponses automatisées

Une analyse détaillée de millions de réponses montre l'ampleur du phénomène. Dans le cas de ChatGPT, Grokipedia a été mentionné plus de 263 mille fois dans un échantillon de 13,6 millions de requêtes. Bien que Wikipedia en anglais reste une source beaucoup plus citée, le volume de références à l'encyclopédie automatisée ne cesse de croître depuis novembre 2025, une tendance qui se confirme également dans les outils de Google et Microsoft. Cette augmentation inquiète car elle reflète une priorité pour répondre rapidement plutôt que pour vérifier soigneusement.

Données clés de l'analyse :
  • ChatGPT : plus de 263 000 citations de Grokipedia contre 2,9 millions pour Wikipedia anglaise.
  • Tendance haussière : Citations en augmentation constante depuis fin 2025.
  • Modèle multiplateforme : Comportement similaire observé dans Gemini et Copilot.
La course à la réponse plus rapide nous a menés à un point où les machines se réfèrent les unes aux autres pour confirmer ce qu'elles disent.

Les dangers d'utiliser des sources non vérifiées

Le cœur du problème réside dans la nature non curatée de Grokipedia. Étant générée sans qu'éditeurs humains corrigent son contenu, elle peut conserver des erreurs factuelles et inclure des perspectives avec un biais algorithmique. Lorsque les modèles de langage large (LLM) utilisent cette source, ils ne se contentent pas de reproduire ces erreurs, mais leur confèrent en outre une fausse apparence d'autorité en les présentant comme référence. Cela nuit à la confiance dans les réponses de l'IA et complique pour les utilisateurs de savoir ce qui est vrai.

Risques principaux identifiés :
  • Propager des erreurs : Les erreurs factuelles se perpétuent et s'amplifient.
  • Légitimer des biais : Les perspectives non modérées sont présentées comme information.
  • Éroder la confiance : La fiabilité des assistants IA est compromise.

Un cycle de validation entre machines

La situation actuelle pose un scénario critique où les systèmes d'IA, dans leur quête d'efficacité et de volume, créent un cycle fermé d'information. Ils se consultent et se valident mutuellement, en utilisant des sources générées automatiquement que personne ne supervise. Ce mécanisme facilite la diffusion de désinformation à grande échelle avec une apparence de légitimité. La conclusion est claire : sans mettre en place des processus robustes pour vérifier les faits, l'utilité et la crédibilité de ces outils conversationnels pourraient être sérieusement affectées. 🚨