شات جي بي تي وغيرها من الذكاء الاصطناعي يستشهدان بـ"غروكيبيديا" رغم أخطائها

2026 February 12 | مترجم من الإسبانية
Captura de pantalla mostrando una respuesta de ChatGPT donde se cita como fuente a Grokipedia, con un recuadro rojo destacando la referencia.

تشات جي بي تي وغيرها من الذكاء الاصطناعي يستشهدان بـ Grokipedia رغم أخطائها

المساعدون الحواريون الرئيسيون المدعومون بـ الذكاء الاصطناعي، بما في ذلك تشات جي بي تي وجوجل جيميني ومايكروسوفت كوبايلوت، يدمجون بشكل متكرر إشارات إلى Grokipedia. هذه الموسوعة، التي أنشأتها xAI، شركة إيلون ماسك، بشكل مستقل، تفتقر إلى الإشراف البشري. تكشف بيانات حديثة أن وجودها في ردود الذكاء الاصطناعي تضاعف، مما يثير القلق بين المتخصصين بسبب إمكانية نشر معلومات خاطئة. 🤖⚠️

الوجود المتزايد لـ Grokipedia في الردود الآلية

يظهر تحليل مفصل لملايين الردود حجم الظاهرة. في حالة تشات جي بي تي، ذُكرت Grokipedia أكثر من 263 ألف مرة ضمن عينة من 13.6 مليون استفسار. على الرغم من أن ويكيبيديا الإنجليزية لا تزال مصدرًا أكثر استشهادًا بكثير، إلا أن حجم الإشارات إلى الموسوعة الآلية يستمر في النمو منذ نوفمبر 2025، وهي اتجاه يؤكد أيضًا في أدوات جوجل ومايكروسوفت. يثير هذا الارتفاع القلق لأنه يعكس أولوية لـ الرد السريع بدلاً من التحقق بعناية.

بيانات رئيسية من التحليل:
  • تشات جي بي تي: أكثر من 263,000 استشهاد بـ Grokipedia مقابل 2.9 مليون بـ ويكيبيديا الإنجليزية.
  • اتجاه صعودي: استشهادات في ازدياد مستمر منذ نهاية 2025.
  • نمط متعدد المنصات: سلوك مشابه ملاحظ في جيميني وكوبايلوت.
سباق الرد أسرع قادنا إلى نقطة حيث تشير الآلات إلى آلات أخرى لتأكيد ما تقوله.

مخاطر استخدام مصادر غير مراجعة

جوهر المشكلة يكمن في الطبيعة غير المراجعة لـ Grokipedia. بما أنها تُولد دون تصحيح المحررين البشريين لمحتواها، يمكن أن تحافظ على أخطاء واقعية وتشمل وجهات نظر ذات تحيز خوارزمي. عندما تستخدم نماذج اللغة الكبيرة (LLM) هذه المصدر، لا تقتصر على تكرار هذه الأخطاء، بل تمنحها أيضًا مظهرًا كاذبًا للسلطة من خلال تقديمها كمرجع. هذا يضر بالثقة في ردود الذكاء الاصطناعي ويصعب على المستخدمين معرفة ما هو الحقيقي.

المخاطر الرئيسية المحددة:
  • نشر الأخطاء: الأخطاء الواقعية تستمر وتتضخم.
  • شرعنة التحيزات: الوجهات نظر غير المعتدلة تُقدم كمعلومات.
  • تآكل الثقة: موثوقية مساعدي الذكاء الاصطناعي تتعرض للخطر.

دورة تحقق بين الآلات

الوضع الحالي يطرح سيناريو حرج حيث تخلق أنظمة الذكاء الاصطناعي، في سعيها للكفاءة والحجم، دورة معلومات مغلقة. يتم استشارتهم وتأكيدهم لبعضهم البعض، باستخدام مصادر مولدة آليًا لا يشرف عليها أحد. يسهل هذا الآلية نشر المعلومات المضللة على نطاق واسع بمظهر الشرعية. الخلاصة واضحة: بدون تنفيذ عمليات قوية للتحقق من الحقائق، قد تتأثر فائدة ومصداقية هذه الأدوات الحوارية بشكل خطير. 🚨