Google a franchi une étape supplémentaire dans l'intégration d'assistants d'IA dans ses environnements de développement. La promesse est claire : automatiser les tâches répétitives et suggérer du code pour accélérer le travail. Cependant, les premières impressions indiquent que le système, bien qu'fonctionnel, présente des lacunes notables. Le plus grand inconvénient est son appétit croissant pour les ressources RAM, une ressource rare dans de nombreuses configurations actuelles.
Le coût en ressources de l'assistance contextuelle en temps réel 🤖
Le système fonctionne en analysant le contexte du code en temps réel pour offrir des suggestions et un autocomplétion. Ce processus continu nécessite que les modèles de langage restent chargés et actifs en mémoire. La surcharge n'est pas négligeable ; elle peut ajouter plusieurs gigaoctets de consommation de RAM à l'IDE. Pour des environnements avec plusieurs projets ou outils en parallèle, cela se traduit par des swaps constants ou par la nécessité de matériel avec une plus grande capacité.
Votre code tient, mais l'IA qui le suggère, non 🧠
C'est la paradoxe moderne : vous avez un IDE qui utilise à peine 30 % du CPU, mais la mémoire s'épuise parce que l'IA assistante a besoin de plus d'espace pour penser que votre propre système d'exploitation. Il semble que la nouvelle règle soit que, pour chaque ligne de code que vous écrivez, l'assistant doit mémoriser trois encyclopédies et la liste complète des bibliothèques de npm. Peut-être que la prochaine étape sera que l'IDE nous demande la permission de louer un espace dans le cloud juste pour ses pensées.