
OpenAI और Anthropic अपनी AI प्लेटफॉर्म्स पर किशोरों की सुरक्षा के लिए सहमत
दो कृत्रिम बुद्धिमत्ता दिग्गज, OpenAI और Anthropic, ने उपयोगकर्ता किशोरों की रक्षा के लिए विशेष रूप से डिज़ाइन किया गया एक संयुक्त कार्य ढांचा की घोषणा की है। यह पहल, व्हाइट हाउस के सामने प्रतिबद्धताओं के अनुरूप, यह परिभाषित करने का प्रयास करती है कि उनके भाषा मॉडल युवाओं के साथ कैसे बातचीत करते हैं, संभावित क्षति को सीमित करते हुए। 🤝
जोखिमों का मूल्यांकन और लेबलिंग पर केंद्रित योजना
सहमति का मूल खतरों का विश्लेषण करने में निहित है जो ChatGPT या Claude जैसे सिस्टम किशोरों के लिए प्रस्तुत कर सकते हैं। कंपनियां संवेदनशील विषयों से संबंधित सामग्री पर ध्यान केंद्रित करती हैं, जैसे हिंसा या मानसिक स्वास्थ्य समस्याएं। इसे कम करने के लिए, वे बनाने और लागू करने के लिए प्रतिबद्ध हैं जो AI द्वारा उत्पन्न इस प्रकार के प्रतिक्रियाओं की पहचान और स्वचालित रूप से चिह्नित करने वाले उपकरण।
सुरक्षा ढांचे की प्रमुख प्रतिबद्धताएं:- प्रणालीगत रूप से मूल्यांकन करना कि मॉडल नाबालिगों के लिए हानिकारक सामग्री उत्पन्न या प्रोत्साहित कैसे कर सकते हैं।
- लेबलिंग सिस्टम विकसित करना जो संवेदनशील जानकारी उत्पन्न होने पर चेतावनी दें।
- मॉडलों को प्रशिक्षित करना ताकि वे युवा उपयोगकर्ताओं की पूछताछ का पता लगाएं और सुरक्षित एवं उचित तरीके से प्रतिक्रिया दें।
सबसे बुद्धिमान मॉडल बनाने के लिए प्रतिस्पर्धा करना अब सबसे सतर्क होने के लिए प्रतिस्पर्धा करना भी意味 करता है।
AI उद्योग को स्व-नियमित करने की ओर एक कदम
यह सहयोगी प्रयास उद्योग के अंदर से नैतिक मानदंड स्थापित करने के लिए एक सक्रिय आंदोलन का प्रतिनिधित्व करता है, जो भविष्य के अधिक प्रतिबंधात्मक कानूनों का अनुमान लगाता है। किशोरों की सुरक्षा को प्राथमिकता देकर, OpenAI और Anthropic यह प्रदर्शित करने का प्रयास कर रहे हैं कि जिम्मेदारी के साथ नवाचार करना संभव है।
सफलता निर्धारित करने वाले कारक:- सुरक्षा प्रोटोकॉल को प्लेटफॉर्म्स पर लागू करने का सटीक तरीका।
- कंपनियों द्वारा अपनी प्रगति और बाधाओं के बारे में रिपोर्टिंग में बनाए रखी गई पारदर्शिता का स्तर।
- उपकरणों की क्षमता जो अनुकूलित हो सकें जो उभरने वाले नई जोखिम रूपों के लिए।
अधिक जिम्मेदार AI का प्रभाव
इन उपायों की प्रभावशीलता न केवल उपयोगकर्ताओं की रक्षा करेगी, बल्कि पूरे उद्योग के लिए मानक परिभाषित भी कर सकती है। AI के नाबालिगों पर प्रभाव के बारे में चिंताओं को सक्रिय रूप से संबोधित करके, यह अपनी अवधारणा से सामाजिक निहितार्थों पर विचार करने वाली प्रौद्योगिकी विकसित करने के लिए एक मिसाल कायम करता है। अंतिम उद्देश्य तकनीकी प्रगति को सबसे युवाओं के डिजिटल कल्याण की सुरक्षा के साथ संतुलित करना है। 🛡️