OpenAI का अमेरिकी रक्षा विभाग के साथ सहयोग करने का निर्णय एक व्यापक और तत्काल प्रतिक्रिया को जन्म दे चुका है। घोषणा के बाद, संयुक्त राज्य अमेरिका में ChatGPT के मोबाइल ऐप के अनइंस्टॉलेशन 295% बढ़ गए, जबकि सामान्य दर 9% है। यह डिजिटल उंगली का वोट दिखाता है कि उपयोगकर्ता ऐप स्टोर्स को विरोध के मैदान में कैसे बदल देते हैं, अपने उपभोग की शक्ति का उपयोग नैतिक रूप से संदिग्ध गठबंधनों को अस्वीकार करने के लिए करते हैं।
तकनीकी आंकड़ा: क्लॉड 🤖 की ओर नैतिक प्रवास
मेट्रिक्स एक स्पष्ट उपयोगकर्ता हस्तांतरण प्रकट करती हैं। जबकि ChatGPT के डाउनलोड 13% और फिर 5% गिरे, उसके प्रतियोगी Anthropic Claude के डाउनलोड समान अवधियों में 37% और 51% बढ़े। इस प्रेरणा ने Claude को App Store के मुफ्त रैंकिंग में पहला स्थान दिला दिया। आंदोलन की कुंजी Anthropic का सार्वजनिक बयान था जिसमें उन्होंने पेंटागन के साथ सहयोग न करने की घोषणा की, निगरानी और स्वायत्त हथियारों पर नैतिक चिंताओं का हवाला देते हुए। आंकड़े मूल्यों पर आधारित प्रवास को मात्रात्मक बनाते हैं।
प्लेटफॉर्म का सक्रियतावाद नई मानक के रूप में ⚖️
यह मामला उपभोग तकनीक को वैचारिक युद्धक्षेत्र के रूप में मजबूत करता है। प्रत्येक इंस्टॉलेशन या अनइंस्टॉलेशन एक राजनीतिक कार्य बन जाता है, डिजिटल सक्रियतावादी कला का इशारा जो बाजार को आकार देता है। प्रतिक्रिया AI कंपनियों के सामाजिक अनुबंध को पुनर्विचार करने के लिए मजबूर करती है: उपयोगकर्ता केवल उपभोक्ता नहीं हैं, बल्कि नैतिक न्यायाधीश हैं जो जब अपने सिद्धांतों के प्रति विश्वासघात महसूस करते हैं तो रातोंरात प्रतिस्पर्धी परिदृश्य को बदल सकते हैं।
क्या डिजिटल सक्रियतावादी कला अपनी नैतिक विश्वसनीयता बनाए रख सकती है जब वह उन AI उपकरणों का उपयोग करती है जिनकी कंपनियां सैन्य संस्थाओं के साथ सहयोग करती हैं?
(पीडी: यदि आपकी वर्चुअल रियलिटी इंस्टॉलेशन दुनिया को नहीं बदलती, तो कम से कम लैग न दे)