सैन फ्रांसिस्को में एक घटना ने स्वायत्त वाहनों के कार्यान्वयन में एक महत्वपूर्ण दरार को उजागर किया। वायमो के तीन यात्रियों को फंस गया, डरते हुए, जबकि एक व्यक्ति उनके वाहन को अवरुद्ध कर रहा था और पीट रहा था। हालांकि दरवाजे बंद थे, सुरक्षा सॉफ्टवेयर, जो लोगों के पास होने पर स्थिर हो जाने के लिए प्रोग्राम किया गया था, ने उन्हें मैन्युअल रूप से भागने से रोक दिया। यह घटना एक तकनीकी खराबी से कहीं आगे जाती है; यह AI की तर्क कैसे मानवीय सुरक्षा अनुभव से टकरा सकता है, इस पर एक केस स्टडी है।
स्थिरता प्रोटोकॉल: दोषपूर्ण डिज़ाइन या आवश्यक? 🤖
समस्या का मूल एक प्रतीततः समझदार प्रोग्रामिंग पैरामीटर में निहित है: पैदल यात्री को कुचलने वाले किसी भी आंदोलन से बचकर शारीरिक सुरक्षा को पूर्ण रूप से प्राथमिकता देना। हालांकि, सिस्टम में एक विचलित पैदल यात्री और आक्रामक खतरे के बीच अंतर करने के लिए संदर्भीकरण की कमी थी। AI ने अपना प्रोटोकॉल पूर्णता से निष्पादित किया, लेकिन डिज़ाइन ने यात्रियों के लिए इस जोखिम परिदृश्य की कल्पना नहीं की। यहां, 3D विज़ुअलाइज़ेशन और सिमुलेशन संघर्षपूर्ण परिदृश्यों को मॉडल करने और वैकल्पिक प्रोटोकॉलों का परीक्षण करने के लिए महत्वपूर्ण हैं, जैसे एक आपातकालीन निकास नियंत्रित जो वाहन को कम गति से पूर्वनिर्धारित सुरक्षित क्षेत्र की ओर ले जाए।
स्वचालन में सामाजिक विश्वास के लिए सबक 🧠
वायमो का जवाब, यात्रियों की शारीरिक अखंडता पर जोर देते हुए, उनके मनोवैज्ञानिक आघात को कम आंक गया। सामाजिक स्वीकृति के लिए, सुरक्षा समग्र होनी चाहिए: शारीरिक और भावनात्मक। यह घटना विश्वास को कमजोर करती है और प्रकट करती है कि अपवादात्मक स्थितियों में उपयोगकर्ता के लिए स्पष्ट और सुलभ ओवरराइड तंत्र के बिना पूर्ण स्वायत्तता, असुरक्षा पैदा कर सकती है। उद्योग को अपने एल्गोरिदम में इन मानवीय अनुभवों को शामिल करना चाहिए, अन्यथा यह तकनीक के अपनाने को रोकने वाली प्रतिष्ठा संकट का सामना करेगा।
हम स्वायत्त वाहनों की सांख्यिकीय सुरक्षा और अलग-थलग लेकिन मीडिया वाले घटनाओं के बाद जनता द्वारा अनुभव की जाने वाली सुरक्षा के बीच की खाई को कैसे बंद कर सकते हैं?
(पीडी: तकनीकी उपनाम बच्चों की तरह हैं: आप उन्हें नाम देते हैं, लेकिन समुदाय तय करता है कि उन्हें कैसे बुलाएं)