
الروبوتات الدردشة الرئيسية للذكاء الاصطناعي لا تكتشف الفيديوهات المُنشأة باستخدام Sora
تقرير حديث من NewsGuard يكشف عن خلل كبير في مساعدي الذكاء الاصطناعي الأكثر شهرة: فشلهم في التعرف على الفيديوهات التي ينتجها مولد Sora من OpenAI. حتى ChatGPT، الذي أنشأته الشركة نفسها، يفشل في هذه المهمة. قيم الخبراء عدة نماذج باستخدام مواد بصرية أصلية ومُصنعة، وأظهرت النتائج قصورًا ملحوظًا في تمييز مصدر المحتوى. 🤖
تُظهر التقييمات فجوة في التعرف
قدم الباحثون للـروبوتات الدردشة عشرة مقاطع، نصفها حقيقية والنصف الآخر مُنشأة بواسطة Sora، وطُلب منهم تحديد مصدرها. لم يتمكن أي من الأنظمة المختبرة، والتي تشمل إصدارات ChatGPT وGoogle Gemini وMicrosoft Copilot وMeta AI وGrok، من تجاوز ثمانين بالمئة من الإصابات الصحيحة. في عدة مناسبات، رفضت النماذج تحليل المادة أو أعطت إجابات عامة حول كيفية التعرف على المحتوى الاصطناعي بدلاً من تطبيق ذلك المعرفة عمليًا.
النماذج المُقيّمة وأداؤها:- ChatGPT (OpenAI): لم يتعرف على الفيديوهات المُنشأة من قبل الشركة الأم الخاصة به.
- Google Gemini وMicrosoft Copilot: أظهروا معدلات إصابة منخفضة وإجابات متجنبة.
- Meta AI وGrok: رفضوا بشكل متكرر التحليل أو قدموا إرشادات نظرية غير قابلة للتطبيق.
نماذج اللغة العامة لا تنقل معرفتها بفعالية إلى هذه المهمة المحددة للتحقق من الفيديو.
المخاطر على المعلومات عبر الإنترنت واضحة
هذا العجز عن التحقق من صحة الفيديو يمثل تحديًا فوريًا لمواجهة المعلومات المضللة على الإنترنت. الأدوات التي يعتمد عليها الكثيرون لفحص المحتوى غير جاهزة للمواد الفائقة الواقعية التي يمكن لـSora إنتاجها. يبرز هذا السيناريو الحاجة الملحة لإنشاء طرق كشف أكثر صلابة وتخصصًا. 🚨
الآثار العملية لهذا القصور:- لا يمكن للمستخدمين الاعتماد على هذه المساعدين لـتصفية المحتوى الكاذب المُولد بواسطة الذكاء الاصطناعي.
- يفتح نافذة لإنشاء وتوزيع مواد مخادعة بسهولة أكبر.
- الـنظرية حول علامات الماء أو الشذوذ في الإطارات التي يشرحها الروبوتات الدردشة لا تُطبق عمليًا.
مفارقة الذكاء الاصطناعي الحديث
من المفارقات أن الـذكاء الاصطناعي، الذي يُروج له غالبًا كحل للمشكلات المعاصرة، لا يستطيع التعرف على إبداعه الأكثر تقدمًا. تقدم الروبوتات الدردشة تفسيرات واسعة حول الكشف، لكنها في النهاية تفشل عند مواجهة الحالة العملية. يؤكد هذا الاكتشاف الحاجة إلى نهج مختلف وأكثر تحديدًا لتطوير أدوات يمكنها حقًا حماية سلامة المعلومات البصرية عبر الإنترنت.