एप्पल और गूगल: एआई के लिए क्लाउड में हार्डवेयर की चुनौती

2026 March 04 | स्पेनिश से अनुवादित

कृत्रिम बुद्धिमत्ता बड़ी तकनीकी कंपनियों की बुनियादी ढांचे की परीक्षा ले रही है। Apple, अपने Private Cloud Compute सेवा के साथ जो M2 Ultra चिप्स वाले सर्वरों पर आधारित है, दक्षता की गंभीर समस्याओं का सामना कर रहा है, औसतन 10% उपयोग के साथ और निष्क्रिय हार्डवेयर। इसकी कठोर वास्तुकला और महंगी पुनर्संरचना से इनकार ने इसे Google के साथ नए Siri मॉडलों को होस्ट करने के लिए समझौते की ओर ले गया। यह तकनीकी-वाणिज्यिक कदम IA गहन भारों के लिए कम्प्यूटिंग हार्डवेयर को स्केल करने की जटिलता को उजागर करता है।

Servidores con chips Apple M2 Ultra en un centro de datos, mostrando baja actividad y desafíos de eficiencia energética.

प्रतिस्पर्धी वास्तुकलाएँ: सर्वरों में M2 Ultra बनाम Google की फार्में 🤔

समस्या का मूल है हार्डवेयर की कार्यभार के लिए उपयुक्तता। Apple ने अपने M2 Ultra चिप्स को, जो अंतिम उपकरणों में दक्षता के लिए डिज़ाइन किए गए हैं, सर्वर वातावरण के लिए अनुकूलित किया। हालांकि, बड़े भाषा मॉडलों (LLM) के लिए, बड़े पैमाने पर समानांतरता में दक्षता और स्केलेबिलिटी महत्वपूर्ण हैं। Google, अपने डेटा सेंटर्स में TPUs और GPUs के वर्षों के अनुभव के साथ, Gemini जैसे मॉडलों के प्रशिक्षण और अनुमान के लिए अपनी बुनियादी ढांचे को अनुकूलित किया है। यह अंतर एक जटिल 3D दृश्य को रेंडर करने के समान है: एक शक्तिशाली एकल चिप (M2 Ultra) बड़े पैमाने पर समानांतर कार्यों में बोतलनेक हो सकती है, जहाँ एक रेंडर फार्म (Google की वास्तुकला) रैखिक रूप से स्केल करता है। Apple की आंतरिक खंडीकरण संसाधनों को लचीले ढंग से पुनर्वितरित करने से रोकती है, जो उच्च प्रदर्शन कम्प्यूटिंग में घातक समस्या है।

व्यावसायिक कम्प्यूटिंग के लिए सबक: विशेषज्ञता और स्केलेबिलिटी ⚙️

यह मामला गहन भारों के लिए हार्डवेयर में एक प्रमुख सिद्धांत को रेखांकित करता है: वास्तुकला को अनुप्रयोग का अनुसरण करना चाहिए। IA के लिए सर्वर वातावरण में उपभोग समाधान (M चिप) को जबरदस्ती करना विशेषज्ञता की कमी दर्शाता है। 3D और उच्च प्रदर्शन कम्प्यूटिंग के पेशेवरों के लिए, सबक स्पष्ट है: बुनियादी ढांचे में निवेश स्केलेबल और कार्य के लिए समर्पित होना चाहिए। दक्षता केवल सिलिकॉन पर निर्भर नहीं करती, बल्कि लचीले और आर्थिक रूप से स्केल करने के लिए डिज़ाइन किए गए सॉफ्टवेयर और हार्डवेयर के पारिस्थितिकी तंत्र पर, कुछ ऐसा जो Apple सीख रहा है और Google पहले से ही हावी है।

क्या Apple का Private Cloud Compute दृष्टिकोण Google के पारंपरिक बड़े पैमाने के डेटा सेंटर्स मॉडल के मुकाबले 3D IA अनुमान के लिए हार्डवेयर आवश्यकताओं को पुनर्परिभाषित कर सकता है?

(पीडी: याद रखें कि एक शक्तिशाली GPU आपको बेहतर मॉडलर नहीं बनाएगा, लेकिन कम से कम आप अपने गलतियों को तेजी से रेंडर करेंगे)