डीपफेक अब विज्ञान कथा नहीं रह गए हैं, बल्कि एक रोजमर्रा की वास्तविकता बन गए हैं। Kling 3.0 या Veo 3 जैसे उपकरणों के साथ, कोई भी मिनटों में नकली वीडियो बना सकता है। कृत्रिम बुद्धिमत्ता चेहरों को बदलती है, आवाजों की नकल करती है और ऐसे काल्पनिक परिदृश्य बनाती है जो मानव आंखों को धोखा देने वाली यथार्थता रखते हैं। साधारण अवलोकन से इन हेरफेरों का पता लगाना अब संभव नहीं है; एकमात्र ठोस बचाव सामग्री के स्रोत का पता लगाना है।
जनरेटिव एडवरसैरियल नेटवर्क कैसे काम करते हैं 🤖
ये नकली चीजें जनरेटिव एडवरसैरियल नेटवर्क पर आधारित होती हैं, जहां दो मॉडल परिणाम की गुणवत्ता में सुधार के लिए प्रतिस्पर्धा करते हैं। एक नकली सामग्री उत्पन्न करता है जबकि दूसरा उसे पकड़ने की कोशिश करता है; हजारों पुनरावृत्तियों के बाद, नकली अविभाज्य हो जाता है। Kling 3.0 वास्तविक समय में वीडियो प्रोसेस करने के लिए उन्नत डिफ्यूजन मॉडल का उपयोग करता है, जबकि Veo 3 लिप सिंक्रोनाइजेशन और प्रकाश सुसंगतता को अनुकूलित करता है। परिणाम इतना परिष्कृत उत्पाद होता है कि स्वचालित पहचान प्रणाली भी अक्सर विफल हो जाती है।
वह चचेरा भाई जिसने आपको पहले ही एक डीपफेक भेज दिया है 😅
यह बहुत संभव है कि आपके तकनीक-प्रेमी रिश्तेदार ने पहले ही व्हाट्सएप ग्रुप में एक डीपफेक शेयर कर दिया हो। हाँ, वह राजनेता का साल्सा नाचने वाला वीडियो असली नहीं था। सबसे बुरी बात यह है कि अब आपकी चाची को भी यह पता है, लेकिन उन्हें इससे कोई फर्क नहीं पड़ता क्योंकि उन्हें यह मजेदार लगता है। इस बीच, विशेषज्ञ स्रोतों की पुष्टि करने और अपनी आँखों पर भी भरोसा न करने की सलाह देते हैं। यानी, अगर आपका बॉस वीडियो कॉल के जरिए आपको वेतन वृद्धि देने की बात करता है, तो बेहतर होगा कि आप फोन पर कॉल करें।