Google deu mais um passo na integração de assistentes de IA em seus ambientes de desenvolvimento. A promessa é clara: automatizar tarefas repetitivas e sugerir código para agilizar o trabalho. No entanto, as primeiras impressões indicam que o sistema, embora funcional, apresenta deficiências notáveis. O maior inconveniente é seu crescente apetite por recursos de RAM, um bem escasso em muitas configurações atuais.
O custo em recursos da assistência contextual em tempo real 🤖
O sistema funciona analisando o contexto do código em tempo real para oferecer sugestões e autocompletar. Esse processo contínuo requer que os modelos de linguagem sejam mantidos carregados e ativos na memória. A sobrecarga não é trivial; pode adicionar vários gigabytes de consumo de RAM ao IDE. Para ambientes com múltiplos projetos ou ferramentas em paralelo, isso se traduz em trocas constantes ou na necessidade de hardware com maior capacidade.
Seu código cabe, mas a IA que o sugere, não 🧠
É a paradoxo moderno: você tem um IDE que usa apenas 30% da CPU, mas a memória se esgota porque a IA assistente precisa de mais espaço para pensar que o próprio sistema operacional. Parece que a nova regra é que, para cada linha de código que você escreve, o assistente requer memorizar três enciclopédias e o listado completo de bibliotecas do npm. Talvez o próximo passo seja o IDE nos pedir permissão para alugar um espaço na nuvem só para seus pensamentos.