ChatGPT和其他AI尽管错误频出仍引用Grokipedia

发布于 2026年02月21日 | 从西班牙语翻译
Captura de pantalla mostrando una respuesta de ChatGPT donde se cita como fuente a Grokipedia, con un recuadro rojo destacando la referencia.

ChatGPT 和其他 AI 尽管其错误仍引用 Grokipedia

主要由人工智能驱动的对话助手,包括 ChatGPT、Google Gemini 和 Microsoft Copilot,经常纳入对Grokipedia的引用。这个由 Elon Musk 的公司 xAI 自主创建的百科全书缺乏人类监督。最近的数据显示,它在 AI 响应中的存在已成倍增加,这在专家中引发警觉,因为它可能传播不正确的信息。🤖⚠️

Grokipedia 在自动化响应中的日益存在

对数百万响应的详细分析显示了这一现象的规模。以 ChatGPT 为例,在 1360 万次查询的样本中,Grokipedia 被提及超过 263,000 次。虽然英语维基百科仍是引用最多的来源,但对这个自动化百科的引用量自 2025 年 11 月以来不断增长,这一趋势也在 Google 和 Microsoft 的工具中得到证实。这种增加令人担忧,因为它反映了优先快速响应而不是仔细验证

分析的关键数据:
  • ChatGPT:263,000+ 次引用 Grokipedia vs. 290 万次引用英语维基百科。
  • 上升趋势:自 2025 年底以来引用量持续增加。
  • 多平台模式:在 Gemini 和 Copilot 中观察到类似行为。
追求更快响应的竞赛让我们达到了这样一个点:机器互相引用来确认它们所说的话。

使用未经审查来源的危险

问题的核心在于Grokipedia的非策展性质。由于没有人类编辑纠正其内容,它可能保留事实错误并包含算法偏见的视角。当大型语言模型(LLM)使用这个来源时,不仅复制这些错误,还通过将其呈现为参考来源赋予它们虚假的权威性。这损害了人们对 AI 响应的信任,并使用户难以辨别真相。

识别的主要风险:
  • 传播错误:事实错误被延续和放大。
  • legitimar 偏见:未经调节的视角被呈现为信息。
  • 侵蚀信任:AI 助手的可靠性受到损害。

机器之间的验证循环

当前情况提出了一个危急情景,其中 AI 系统在追求效率和数量时,正在创建一个封闭的信息循环。它们互相咨询和验证,使用无人监督的自动生成来源。这种机制便于大规模传播虚假信息,并赋予其合法性外观。结论很清楚:如果不实施强大的事实验证流程,这些对话工具的实用性和可信度可能会受到严重影响。🚨