أريانا غراندي وريهانا المزيفتان: عملية احتيال بالذكاء الاصطناعي تخدع الجميع

2026 May 04 Publicado | Traducido del español

يتقدم الذكاء الاصطناعي بخطوات متسارعة، ولكن ليس فقط لإنشاء الفن أو تحسين العمليات. يحذر خبراء الأمن السيبراني من زيادة في عمليات الاحتيال التي يتم فيها استنساخ أصوات وصور المشاهير مثل أريانا غراندي وريهانا. هذه التقليدات شبه مثالية، مما يجعل أي شخص قد يقع في فخ رسالة أو مكالمة مزيفة تطلب المال أو البيانات الشخصية.

شاشة منقسمة تعرض صورتين واقعيتين للغاية تم إنشاؤهما بالذكاء الاصطناعي: أريانا غراندي وريهانا تبتسمان، مع أيقونة تحذير حمراء متراكبة. في الخلفية، يصدر هاتف إشعارًا مشبوهًا.

التزييف العميق للصوت والفيديو: المعيار الجديد للخداع الرقمي 🎭

تستخدم التكنولوجيا الكامنة وراء هذه الاحتيالات نماذج تركيب الصوت مثل Tacotron أو WaveNet، القادرة على تكرار النغمات والتنغيمات ببضع ثوانٍ من الصوت الحقيقي. ويضاف إلى ذلك توليد الفيديو باستخدام الشبكات التوليدية التنافسية، التي تزامن الشفاه وحركات الوجه. لم يعد المحتالون بحاجة إلى خوادم ضخمة؛ فهم يعالجون هذه التزييفات في السحابة أو حتى على الأجهزة المنزلية، مما يجعل الكشف تحديًا تقنيًا مستمرًا.

عمتي أرسلت بالفعل مالًا إلى ريهانا عبر واتساب 😱

أسوأ ما في الأمر أن هذه التزييفات لم تعد تقتصر على رسالة نصية مكتوبة بشكل سيء. الآن يصل إليك فيديو لريهانا تطلب منك قرضًا لعطرها الجديد، أو أريانا غراندي تشتكي من أنها فقدت بطاقتها الائتمانية. وبالطبع، يصدقها أكثر من شخص بل ويشعر بالتميز. في المرة القادمة، إذا طلب منك فنانك المفضل المال، تذكر أنه على الأرجح في جولة، وليس يطلب 50 يورو للبنزين.