
कौन कृत्रिम बुद्धिमत्ता की निगरानी करता है?
क्या आपने कभी सोचा है कि कृत्रिम बुद्धिमत्ता प्रणालियाँ सही ढंग से कार्य करें, इसका नियंत्रण कौन करता है? यह बहुत शक्तिशाली उपकरणों को रखने जैसा है, लेकिन यह स्पष्ट नहीं है कि उनका उपयोग कैसे करें। अब, सार्वजनिक संस्थाएँ इस नए डिजिटल वातावरण के लिए नियम परिभाषित करना शुरू कर रही हैं। 🤖
जोखिम को वर्गीकृत करने वाला यूरोपीय नियमावली
यूरोपीय संघ ने आईए को विनियमित करने के लिए पहली व्यापक विधानसभाओं में से एक को बढ़ावा दिया है। यह खतरे के स्तरों पर आधारित दृष्टिकोण के साथ काम करता है। कुछ उपयोग, जैसे सार्वजनिक स्थानों में जैवमित्रीय पहचान, पूरी तरह से प्रतिबंधित हैं। अन्य, जैसे संवादात्मक सहायक, के लिए कंपनियों को उपयोगकर्ताओं को यह बताना आवश्यक है कि वे एक मशीन के साथ बातचीत कर रहे हैं। उद्देश्य नकारात्मक परिणामों से बचना और पहले से तैयारी करना है।
विनियमन के मुख्य बिंदु:- उच्च जोखिम वाले उपयोगों का निषेध: वास्तविक समय में चेहरे की पहचान जैसे सिस्टमों को सामूहिक निगरानी के लिए वीटो कर दिया गया।
- अनिवार्य पारदर्शिता: चैटबॉट्स और सामग्री उत्पन्न करने वाले सिस्टमों को अपनी स्वचालित प्रकृति प्रकट करनी चाहिए।
- कार्यान्वयन पर ध्यान: कानून तकनीकी उपकरण को अमूर्त रूप से नहीं, बल्कि ठोस उद्देश्य का मूल्यांकन करता है।
हथौड़ा को प्रतिबंधित नहीं किया जाता, बल्कि कांच तोड़ने के लिए इसका उपयोग। एक एल्गोरिदम छवियों को व्यवस्थित करने के लिए सौम्य हो सकता है और ऋण प्रदान करने के लिए जोखिम भरा।
फोकस उपयोग पर है, न कि तकनीक पर
इस नियमावली का एक मौलिक पहलू यह है कि यह आईए को विनियमित करने का प्रयास नहीं करता अवधारणा के रूप में, बल्कि इसकी व्यावहारिक कार्यान्वयन। एक ही मशीन लर्निंग सिस्टम फाइलों को वर्गीकृत करने के लिए हानिरहित हो सकता है और यदि मानवीय मानदंड के बिना इसे जाँच के बिना रोजगार के उम्मीदवारों का चयन करता है तो संभावित रूप से हानिकारक। अंतर महत्वपूर्ण है।
मूल्यांकन कैसे बदलता है के उदाहरण:- पालतू जानवरों की तस्वीरों को वर्गीकृत करना: निम्न जोखिम वाला उपयोग, आमतौर पर अनुमत।
- सामाजिक सहायता के अनुरोधों को स्कोर करना: उच्च जोखिम वाला उपयोग, ऑडिट और नियंत्रण के सख्त आवश्यकताओं के अधीन।
- रचनात्मक पाठ उत्पन्न करना: सीमित जोखिम वाला उपयोग, स्वचालित सामग्री लेबलिंग की आवश्यकता।
भविष्य की ओर देखते हुए
मुख्य चुनौती यह नहीं है कि मशीनें विद्रोह करें, बल्कि समाज उनकी शक्ति को जिम्मेदारी से प्रबंधित करना न जानता हो। ये पहली कानून उच्च गति से ड्राइव करने से पहले सुरक्षा बेल्ट लगाने के समकक्ष हैं। अब स्पष्ट सीमाएँ स्थापित करना आत्मविश्वास और सुरक्षा के साथ नवाचार करने के लिए आवश्यक है। 🔒