कौन निगरानी करता है कृत्रिम बुद्धिमत्ताओं को?

2026 February 11 | स्पेनिश से अनुवादित
Infografía que muestra un semáforo con luces roja, ámbar y verde superpuestas sobre un cerebro digital, simbolizando la regulación de la IA por niveles de riesgo.

कौन कृत्रिम बुद्धिमत्ता की निगरानी करता है?

क्या आपने कभी सोचा है कि कृत्रिम बुद्धिमत्ता प्रणालियाँ सही ढंग से कार्य करें, इसका नियंत्रण कौन करता है? यह बहुत शक्तिशाली उपकरणों को रखने जैसा है, लेकिन यह स्पष्ट नहीं है कि उनका उपयोग कैसे करें। अब, सार्वजनिक संस्थाएँ इस नए डिजिटल वातावरण के लिए नियम परिभाषित करना शुरू कर रही हैं। 🤖

जोखिम को वर्गीकृत करने वाला यूरोपीय नियमावली

यूरोपीय संघ ने आईए को विनियमित करने के लिए पहली व्यापक विधानसभाओं में से एक को बढ़ावा दिया है। यह खतरे के स्तरों पर आधारित दृष्टिकोण के साथ काम करता है। कुछ उपयोग, जैसे सार्वजनिक स्थानों में जैवमित्रीय पहचान, पूरी तरह से प्रतिबंधित हैं। अन्य, जैसे संवादात्मक सहायक, के लिए कंपनियों को उपयोगकर्ताओं को यह बताना आवश्यक है कि वे एक मशीन के साथ बातचीत कर रहे हैं। उद्देश्य नकारात्मक परिणामों से बचना और पहले से तैयारी करना है।

विनियमन के मुख्य बिंदु:
हथौड़ा को प्रतिबंधित नहीं किया जाता, बल्कि कांच तोड़ने के लिए इसका उपयोग। एक एल्गोरिदम छवियों को व्यवस्थित करने के लिए सौम्य हो सकता है और ऋण प्रदान करने के लिए जोखिम भरा।

फोकस उपयोग पर है, न कि तकनीक पर

इस नियमावली का एक मौलिक पहलू यह है कि यह आईए को विनियमित करने का प्रयास नहीं करता अवधारणा के रूप में, बल्कि इसकी व्यावहारिक कार्यान्वयन। एक ही मशीन लर्निंग सिस्टम फाइलों को वर्गीकृत करने के लिए हानिरहित हो सकता है और यदि मानवीय मानदंड के बिना इसे जाँच के बिना रोजगार के उम्मीदवारों का चयन करता है तो संभावित रूप से हानिकारक। अंतर महत्वपूर्ण है।

मूल्यांकन कैसे बदलता है के उदाहरण:

भविष्य की ओर देखते हुए

मुख्य चुनौती यह नहीं है कि मशीनें विद्रोह करें, बल्कि समाज उनकी शक्ति को जिम्मेदारी से प्रबंधित करना न जानता हो। ये पहली कानून उच्च गति से ड्राइव करने से पहले सुरक्षा बेल्ट लगाने के समकक्ष हैं। अब स्पष्ट सीमाएँ स्थापित करना आत्मविश्वास और सुरक्षा के साथ नवाचार करने के लिए आवश्यक है। 🔒