कोड जनरेटिव AI की प्रारंभिक प्रतिज्ञा यह सुझाव देती थी कि मानव प्रोग्रामर पर्यवेक्षक या समीक्षक की ओर विकसित होंगे। हालांकि, वास्तविकता ने एक बोतलneck बना दिया है: Claude Code जैसी टूल्स द्वारा उत्पन्न कोड की भारी मात्रा मानवीय समीक्षा की पूर्ण क्षमता को पार कर जाती है। इस समस्या को संबोधित करने के लिए, Anthropic ने Code Review लॉन्च किया है, एक टूल जो विशेषज्ञ AI एजेंट्स की एक टीम के माध्यम से प्रक्रिया को स्वचालित करता है, सॉफ्टवेयर टीमों में सहयोग की गतिशीलता को मौलिक रूप से बदलते हुए।
AI एजेंट्स पैनल की मैकेनिक्स समानांतर विश्लेषण के लिए 🤖
Code Review एकल सहायक की तरह काम नहीं करता। इसके बजाय, यह AI एजेंट्स का एक सेट तैनात करता है जो प्रत्येक परिवर्तन प्रस्ताव को एक साथ विश्लेषण करते हैं, प्रत्येक सुरक्षा, प्रदर्शन या पठनीयता जैसी भिन्न तकनीकी दृष्टिकोण से। एक अंतिम एजेंट सभी निष्कर्षों को समेकित करता है, तार्किक महत्वपूर्ण समस्याओं को प्राथमिकता देता है और डुप्लिकेट्स को हटाता है। परिणाम डेवलपर को स्पष्ट टिप्पणियों और एक रंग प्रणाली के साथ प्रस्तुत किया जाता है जो त्रुटियों की गंभीरता को वर्गीकृत करता है, महत्वपूर्ण से मामूली सुझावों तक। यह दृष्टिकोण एक मानव समीक्षा टीम की विविधता का अनुकरण करने का प्रयास करता है, लेकिन मशीन की स्केलेबिलिटी और गति के साथ।
दूसरे क्रम की मानवीय पर्यवेक्षण की ओर? 👁️
यह विकास डेवलपर की भूमिका को लाइन समीक्षक से समीक्षा की समीक्षा करने वाले की ओर स्थानांतरित करता है, एक गहन सामाजिक-तकनीकी परिवर्तन। स्वचालन में विश्वास जोखिम पैदा करता है, जैसे कोड का संभावित समरूपीकरण या सीखे गए पूर्वाग्रहों का निरंतरता। भविष्य का चुनौती तकनीकी नहीं, बल्कि शासन की है: इन टूल्स को कैसे एकीकृत करें ताकि वे मानवीय निर्णय को बढ़ाएं, न कि प्रतिस्थापित करें, AI-सहायता प्राप्त बड़े पैमाने पर उत्पादन के युग में सॉफ्टवेयर की गुणवत्ता और सुरक्षा बनाए रखते हुए।
क्या आपको लगता है कि स्ट्रिसैंड प्रभाव आलोचनात्मक उपनामों की सेंसरशिप पर लागू होता है?