ذراع آلية مصممة للحصاد الآلي للفواكه بدأت في إتلاف جذوع الأشجار بشكل منهجي في مزرعة ذكية. نظام الرؤية المجسمة للروبوت، المسؤول عن حساب المسافة الدقيقة إلى الفروع، فشل بشكل خطير. أثناء الخبرة الفنية، تم تحديد أن خريطة التباين الناتجة عن الكاميرات تحتوي على تشوهات بصرية. كان الهدف من التحليل الجنائي هو تحديد ما إذا كان انعكاس الشمس على الأوراق قد خدع خوارزمية اكتشاف العمق.
تحليل جنائي لخريطة التباين باستخدام MATLAB 🛠️
تألفت الخطوة الأولى من الخبرة في استخراج الإطارات الخام من الكاميرات المجسمة للروبوت. باستخدام MATLAB ومجموعة أدوات الرؤية الحاسوبية الخاصة به، تم إعادة بناء خريطة التباين للمشهد. أظهرت النتائج مناطق ذات قيم تباين شاذة، خاصة في المناطق التي كانت فيها الأوراق شديدة اللمعان. أدى انعكاس الشمس إلى توليد بكسلات مشبعة فسرتها خوارزمية المطابقة المجسمة على أنها كائنات على عمق أقل بكثير من العمق الحقيقي. تسبب هذا في قيام الذراع الآلية، عند حساب مسار الإمساك، ببرمجة حركة ماسكة قريبة جدًا من الجذع، مما أدى إلى الاصطدام باللحاء. باستخدام SolidWorks، تم نمذجة حركية الذراع وتم تصدير الهندسة إلى MeshLab لتنظيف شبكة نقاط الاصطدام، مما أكد التصادم المنهجي في الإحداثيات الخاطئة.
حلول عملية ومحاكاة في Unity 🎯
لتجنب الحوادث المستقبلية، يُقترح خطان من التصحيح. الأول هو تركيب مرشحات استقطابية على عدسات الكاميرات المجسمة لتقليل الانعكاسات المرآوية للشمس. الثاني، وهو الأكثر تقدمًا، يتمثل في تنفيذ شبكة عصبية للعمق الأحادي كنسخة احتياطية، مدربة على تجاهل تشوهات اللمعان. للتحقق من صحة هذه الحلول، تم إعادة إنشاء السيناريو الكامل في Unity، مع محاكاة ضوء الشمس الديناميكي وسلوك الذراع الآلية. أظهرت المحاكاة أنه مع تنشيط المرشح الاستقطابي الافتراضي، ظلت خريطة التباين مستقرة وقام الروبوت بجمع الفاكهة دون إتلاف الجذع. تعزز دراسة الحالة هذه الحاجة إلى دمج أنظمة رؤية قوية ضد الظروف البيئية المعاكسة في الروبوتات الزراعية.
كيف يمكن للخبرة ثلاثية الأبعاد تحديد ما إذا كان خطأ العمق في روبوت الحصاد ناتجًا عن معايرة خاطئة لمستشعر LiDAR أو عن تفسير خاطئ لهندسة الجذع في نموذج الرؤية الاصطناعية
(ملاحظة: محاكاة الروبوتات ممتعة، حتى يقرروا عدم اتباع أوامرك.)