गूगल ने लाइटआरटी पेश किया, डिवाइस पर एआई इन्फरेंस का नया फ्रेमवर्क

2026 March 17 | स्पेनिश से अनुवादित

गूगल ने LiteRT की घोषणा की है, जो एक सार्वभौमिक इन्फरेंस फ्रेमवर्क है जो TensorFlow Lite की वर्तमान मॉडलों के साथ सीमाओं को पार करने के लिए डिज़ाइन किया गया है। इसका उद्देश्य डिवाइस पर AI निष्पादन को मानकीकृत करना है, गति और ऊर्जा दक्षता को प्राथमिकता देते हुए। LiteRT एक एकीकृत कार्यप्रवाह का वादा करता है जो स्वचालित रूप से NPU जैसे विशेष हार्डवेयर का लाभ उठाता है, .tflite प्रारूप के साथ संगतता बनाए रखते हुए और PyTorch तथा JAX के लिए सीधा समर्थन प्रदान करता है।

Un smartphone con un núcleo brillante, conectado a un chip NPU y símbolos de IA, sobre un fondo de código y circuitos.

तकनीकी स्तंभ और विस्तारित मल्टीप्लेटफॉर्म समर्थन 🤖

LiteRT चार स्तंभों पर आधारित है: अधिक इन्फरेंस गति, एकीकृत त्वरण प्रवाह, खुले जनरेटिव मॉडलों के लिए मजबूत समर्थन और लोकप्रिय फ्रेमवर्क्स के साथ एकीकरण। यह iOS, macOS, Windows, Linux और Web पर GPU त्वरण को विस्तारित करता है, गूगल के अनुसार अपने पिछले GPU डेलिगेट से 1.4 गुना बेहतर प्रदर्शन प्राप्त करता है। वास्तविक latencia को कम करने के लिए, यह असिंक्रोनस निष्पादन और शून्य कॉपी तकनीकों को लागू करता है, CPU और त्वरकों के बीच डेटा आंदोलन में ओवरहेड को न्यूनतम करता है।

मेरे डिवाइस पर धीमा चलता है की बहानों को अलविदा 😅

LiteRT के साथ, जब मॉडल मोबाइल पर रेंगता है तो डेवलपर की क्लासिक बहाना के दिन गिने-जुने हो सकते हैं। अब, अगर ऐप घोंघे की गति से जवाब देता है, तो हम इन्फरेंस डेलिगेट को शांति से दोष नहीं दे पाएंगे। गूगल हमसे एक बहुत प्यारा बलि का बकरा छीन लेता है, हमें नई और रचनात्मक बहाने ढूंढने के लिए मजबूर करता है, जैसे कि उपयोगकर्ता के पास बैकग्राउंड में बहुत सारे कैट खुले हैं। दबाव बढ़ रहा है।