
دعوى قضائية من مهندس سابق تكشف مخاطر أمنية في روبوتات هيومانويد من Figure AI
تواجه صناعة الروبوتات المتقدمة قضية قانونية كاشفة تُظهر الثغرات الأمنية المحتملة في الأنظمة الذاتية. روبرت غرندل، المتخصص السابق في الأمان في Figure AI، قدّم دعوى قضائية ضد صاحب عمله السابق بعد فصله، مدعيًا إهمالًا منهجيًا تجاه تحذيراته بشأن المخاطر المحتملة للروبوتات الهيومانويد. 🤖⚖️
تحذيرات أمنية مُتجاهلة في نماذج الروبوتات الأولية
يؤكد غرندل أنه خلال فترة عمله في Figure AI وثّق أدلة متعددة على قدرة الروبوتات على إحداث إصابات خطيرة في البشر. وفقًا لتصريحاته، تمتلك النماذج الأولية قوة ميكانيكية مفرطة يمكن أن تكسر جماجم البشر في حالة الخلل. يذكر المهندس حادثة محددة حيث أحدث روبوت، أثناء عطل تشغيلي، انبعاجًا عميقًا في باب فولاذي صناعي، مما يُظهر الإمكانية التدميرية لهذه الأنظمة.
الأدلة المقدمة في الدعوى:- وثائق فنية تثبت عدم كفاية أنظمة التحكم في القوة
- سجلات للاتصالات الداخلية حيث حذّر من المخاطر المحتملة
- أدلة مادية على الحادث مع الباب الفولاذي التالف
"عندما يمكن لنظام روبوتي تشويه المعدن الهيكلي، فإن العواقب على الأنسجة البشرية كارثية. الأولوية لدى الشركة كانت لمواعيد التطوير على حساب الأمان الأساسي" - ادعاءات روبرت غرندل
موقف الشركة والجدل الفني
تحافظ Figure AI على موقف دفاعي، مدعية أن فصل غرندل كان بسبب مشكلات في الأداء الوظيفي فقط. تؤكد الشركة أن جميع تطوراتها تتوافق مع معايير الأمان الدولية وتصف حادثة الباب الفولاذي بأنها حادثة معزولة تم حلها بالفعل. ومع ذلك، يشير خبراء مستقلون إلى أن هذه القضية تعكس نمطًا متكررًا في صناعة الذكاء الاصطناعي حيث تتجاوز سرعة الابتكار اعتبارات الأمان.
العواقب المحتملة لـ Figure AI:- تحقيقات تنظيمية بشأن الامتثال للوائح الأمان
- فقدان الثقة من قبل المستثمرين والعملاء المحتملين
- قيود تشغيلية محتملة وغرامات كبيرة
التأثير على مستقبل الروبوتات الهيومانويد
قد تُحدد هذه القضية النموذجية سوابق حاسمة لجميع صناعة الروبوتات المتقدمة. إذا ثبتت اتهامات غرندل، فسيتم تسريع تنفيذ بروتوكولات أمان أكثر صرامة وإشراف حكومي أكبر. في الوقت نفسه، يسعى المهندس السابق إلى تعويض عن الفصل التعسفي وعن الإهمال المزعوم من قبل الشركة تجاه تحذيراته، في سياق تتقدم فيه تكنولوجيا الروبوتات أسرع من إطارها التنظيمي. 🚨🔧