गूगल अपने LiteRT रनटाइम को PyTorch और JAX AI फ्रेमवर्क्स के साथ एकीकरण की घोषणा करता है। यह कदम इन वातावरणों में प्रशिक्षित मॉडलों के लिए अधिक सीधी तैनाती पथ प्रदान करने का प्रयास करता है, बिना मानक .tflite मॉडल प्रारूप को छोड़े। उद्देश्य मॉडलों को प्रशिक्षण से संसाधन-सीमित उपकरणों तक ले जाने की प्रक्रिया को सरल बनाना है।
कुशल इन्फरेंस के लिए पारिस्थितिक तंत्रों का एकीकरण 🤝
LiteRT प्रदर्शन का एक पुल के रूप में कार्य करता है। डेवलपर्स PyTorch या JAX से मॉडलों को .tflite में निर्यात कर सकेंगे और फिर LiteRT के साथ उन्हें निष्पादित कर सकेंगे, जो विभिन्न हार्डवेयर एक्सेलरेटर्स (GPU, NPU) के लिए अनुकूलित है। यह जटिल मध्यवर्ती रूपांतरणों से बचाता है और एक ही अंतिम फाइल प्रारूप बनाए रखता है। संगतता इन फ्रेमवर्क्स के ऑपरेशनों को TensorFlow Lite रनटाइम द्वारा निष्पादित ग्राफ में अनुवाद करने वाली एक्सटेंशन्स के माध्यम से प्राप्त होती है।
डिप्लॉय की पवित्र त्रिमूर्ति, अब कम प्रार्थनाओं के साथ 🙏
यह मॉडल रूपांतरण के दौरान शाप देने से रोकने का निर्णायक प्रयास लगता है। पहले था .onnx में सेव करना, फिर .tflite में निर्यात करना, और अब LiteRT की आत्मा को आमंत्रित करना। गूगल मूल रूप से हमें बता रहा है कि हम अपने पसंदीदा फ्रेमवर्क के साथ जारी रख सकते हैं, जबकि वे उबाऊ हिस्सा करते हैं। यह वैसा ही है जैसे प्लंबर आए और लीक को ठीक कर दे बिना आपको अन्य ब्रांड की चाबी इस्तेमाल करने के लिए तिरस्कार की नजर से देखे। देखते हैं कि इस बार चमत्कार होता है या नहीं।