मेटा की पर्यवेक्षण परिषद ने कंपनी के सिस्टम की अपर्याप्तता की कड़ी आलोचना करते हुए एक कठोर रिपोर्ट जारी की है, जो विशेष रूप से गहराई वाले फेक (deepfakes) जैसे AI द्वारा उत्पन्न सामग्री को मॉडरेट करने के लिए है, विशेष रूप से ईरान युद्ध जैसे संघर्षों के दौरान। इज़राइल में क्षति के बारे में एक फर्जी वीडियो का विश्लेषण करने के बाद, संगठन तत्काल सुधार की मांग करता है। यह इंगित करता है कि वर्तमान मॉडल, जो उपयोगकर्ताओं की स्व-घोषणा पर बहुत अधिक निर्भर करता है, फेसबुक, इंस्टाग्राम और थ्रेड्स जैसी प्लेटफॉर्म पर дезинформация के तेजी से प्रसार के लिए अपर्याप्त है।
तकनीकी ऑडिट: फोरेंसिक डिटेक्शन से C2PA लेबलिंग तक 🔍
परिषद की सिफारिशें डीपफेक के पूर्ण ऑडिट चक्र को संबोधित करती हैं। तकनीकी रूप से, वे बेहतर सक्रिय डिटेक्शन टूल्स की मांग करती हैं, जो उन्नत डिजिटल फोरेंसिक एल्गोरिदम के बराबर हैं जो प्रकाश व्यवस्था, त्वचा की बनावट या चेहरे की ज्यामिति में असंगतियों का विश्लेषण करने में सक्षम हैं, जो 3D विश्लेषण में उपयोग किए जाने वाले समान हैं। समानांतर रूप से, वे C2PA मानक को एक डिजिटल नोटरी के रूप में बढ़ावा देते हैं जो सामग्री के मूल के बारे में मेटाडेटा एम्बेड करता है। कुंजी यह है कि यह लेबलिंग सुलभ और स्पष्ट होनी चाहिए, केवल तकनीकी नहीं। यह वर्तमान प्रतिक्रियाशील ऑडिट से विपरीत है, जहां फोरेंसिक शोधकर्ताओं को पूर्व संकेतों के बिना हेरफेर का इंजीनियरिंग रिवर्स करना पड़ता है।
डिजिटल अखंडता के सामुदायिक मानक की ओर 🤝
AI सामग्री के लिए एक विशिष्ट सामुदायिक मानक की मांग चिंतन का केंद्र है। यह केवल एल्गोरिदम सुधारने की बात नहीं है, बल्कि सामूहिक रूप से परिभाषित करना है कि क्या एक डीपफेक भ्रामक है और क्या स्तर का हेरफेर स्वीकार्य है। यह चर्चा को तकनीकी क्षेत्र से सामाजिक क्षेत्र में स्थानांतरित करता है, सजा में पारदर्शिता की मांग करता है। ऑडिट केवल मेटा की जिम्मेदारी से सामूहिक जिम्मेदारी के ढांचे में बदल जाती है, जहां C2PA लेबलिंग की स्पष्टता और उच्च जोखिम चेतावनियां समुदाय के साथ महत्वपूर्ण इंटरफेस हैं।
क्या आप AI का उपयोग AI का पता लगाने के लिए करेंगे?