एरियाना ग्रांडे और रिहाना का नकली रूप: वह एआई धोखाधड़ी जो सबको बेवकूफ बना रही है

2026 May 04 Publicado | Traducido del español

कृत्रिम बुद्धिमत्ता तेजी से आगे बढ़ रही है, लेकिन केवल कला बनाने या प्रक्रियाओं को बेहतर बनाने के लिए नहीं। साइबर सुरक्षा विशेषज्ञ धोखाधड़ी में वृद्धि के बारे में चेतावनी दे रहे हैं, जहां एरियाना ग्रांडे और रिहाना जैसी मशहूर हस्तियों की आवाज़ और छवियों को क्लोन किया जा रहा है। ये नकलें लगभग सही होती हैं, जिससे कोई भी व्यक्ति पैसे या व्यक्तिगत डेटा मांगने वाले नकली संदेश या कॉल के जाल में फंस सकता है।

एक विभाजित स्क्रीन एरियाना ग्रांडे और रिहाना के दो हाइपरयथार्थवादी AI चित्र दिखाती है, जो मुस्कुरा रहे हैं, जिस पर एक लाल चेतावनी आइकन लगा हुआ है। पृष्ठभूमि में, एक फोन एक संदिग्ध सूचना प्रदर्शित कर रहा है।

वॉयस और वीडियो डीपफेक: डिजिटल धोखे का नया मानक 🎭

इन धोखाधड़ियों के पीछे की तकनीक Tacotron या WaveNet जैसे वॉयस सिंथेसिस मॉडल का उपयोग करती है, जो वास्तविक ऑडियो के कुछ सेकंड के साथ स्वर और उच्चारण की नकल करने में सक्षम हैं। इसमें जनरेटिव एडवरसैरियल नेटवर्क के साथ वीडियो जनरेशन भी शामिल है, जो होंठों और चेहरे के भावों को सिंक्रोनाइज़ करता है। धोखेबाजों को अब बड़े सर्वरों की आवश्यकता नहीं है; वे इन नकलों को क्लाउड या घरेलू हार्डवेयर पर भी प्रोसेस करते हैं, जिससे पहचान एक निरंतर तकनीकी चुनौती बन जाती है।

मेरी चाची ने पहले ही रिहाना को WhatsApp पर पैसे भेज दिए 😱

सबसे बुरी बात यह है कि ये नकलें अब केवल एक गलत लिखे गए टेक्स्ट संदेश तक सीमित नहीं हैं। अब आपको रिहाना का एक वीडियो आता है जो अपने नए परफ्यूम के लिए ऋण मांग रही है, या एरियाना ग्रांडे शिकायत कर रही है कि उसने अपना क्रेडिट कार्ड खो दिया है। और हाँ, एक से अधिक लोग इसे सच मान लेते हैं और विशेष महसूस भी करते हैं। अगली बार, यदि आपका पसंदीदा कलाकार आपसे पैसे मांगता है, तो याद रखें कि वह शायद दौरे पर है, गैसोलीन के लिए 50 यूरो नहीं मांग रहा है।