
جوجل تضيف وظائف إلى جيميني للتفاعل مع الصور واكتشاف الفيديوهات باستخدام الذكاء الاصطناعي
قد أطلقت جوجل تحديثًا هامًا لتطبيقها جيميني، مقدمة أدوات تحول طريقة تواصل المستخدمين مع نموذج Nano Banana. تسمح هذه التحسينات بتفاعل أكثر مباشرة وبصرية، بالإضافة إلى دمج مدقق للمحتوى السمعي البصري الاصطناعي. 🚀
التفاعل البصري مع الذكاء الاصطناعي
الوظيفة الأبرز تسمح للمستخدمين التفاعل مع الصور بطريقة جديدة. بدلاً من الاعتماد فقط على الوصف النصي، يمكنك الآن رفع صورة ورسم أو تدوين مباشرة عليها. يساعد ذلك في تحديد مناطق محددة وطلب من الذكاء الاصطناعي معالجة التغييرات أو تحليل التفاصيل أو تقديم معلومات سياقية.
حالات استخدام عملية:- تحرير الصور: تحديد كائن لإزالته أو تغيير لونه.
- تحليل الرسوم البيانية: محيط قسم من الرسم التخطيطي لطلب تفسير.
- تخطيط التصاميم: رسم مسودات على صورة أساسية لتكرار الأفكار.
رغم أننا نستطيع الآن رسم الخربشات ليفهمها الذكاء الاصطناعي، إلا أن التحدي الحقيقي يظل في فهمه أن ذلك الدائرة مع العصي هي في الواقع صورة عائلية لنا.
التحقق من مصدر الفيديوهات
أمام زيادة المحتوى المولد بالذكاء الاصطناعي، تدخل جوجل كاشفًا للفيديوهات بالذكاء الاصطناعي. تحلل هذه الأداة المواد السمعية البصرية لتحديد الإشارات التي تشير إلى إنتاجها أو تعديلها بواسطة نماذج الذكاء الاصطناعي. هدفها مساعدة المستخدمين على التمييز بين التسجيلات الحقيقية والاصطناعية.
خصائص الكاشف:- يحلل الفيديوهات للبحث عن أنماط التلاعب الشائعة في المحتوى المولد بالذكاء الاصطناعي.
- يوفر طبقة تحقق في بيئة رقمية يزداد فيها هذا النوع من المحتوى تكرارًا.
- يستجيب لحاجة تحديد المحتوى الاصطناعي وتعزيز الشفافية.
سياق التحديث
تصل هذه الجديد بعد فترة قصيرة من آخر تحديث هام لنموذج جيميني 3 فلاش. تعزز دمج نموذج Nano Banana وهذه الأدوات رهان جوجل على جعل التفاعل مع الذكاء الاصطناعي أكثر حدسية وتنوعًا، مقتربًا القدرات المتقدمة لمعالجة الصور والتحقق من الوسائط من المستخدمين النهائيين. تستمر التطورات مع التركيز على فهم ليس الكلمات فقط، بل أيضًا النيات خلف خطوطنا الأبسط. ✍️