MeanFlow mejora como modelo generativo de un solo paso
MeanFlow es un marco reciente para modelar generativo en un solo paso, pero su naturaleza de avance rápido plantea retos. El objetivo de entrenar el modelo original depende no solo de los campos de datos reales, sino también de la propia red. Para resolver esto, se reformula el objetivo como una pérdida sobre la velocidad instantánea v, que se reparametriza mediante una red que predice la velocidad media u. Este cambio plantea un problema de regresión más estándar y estabiliza el entrenamiento.
La guía condicional gana flexibilidad
El método original fija la escala de la guía sin clasificador durante el entrenamiento, lo que limita la flexibilidad. El nuevo enfoque formula la guía como variables de condicionamiento explícitas, lo que permite conservar la flexibilidad al generar. Estas condiciones diversas se procesan mediante condicionamiento en contexto, lo que reduce el tamaño del modelo y beneficia su rendimiento.
El resultado es iMF con un FID de 1.72
El método mejorado, llamado iMF, se entrena desde cero y logra un FID de 1.72 con una sola evaluación de función en ImageNet 256x256. Este resultado supera sustancialmente a métodos previos de un solo paso y reduce la distancia con los métodos de múltiples pasos, todo sin usar destilación. El trabajo busca impulsar el modelado generativo de avance rápido como un paradigma independiente.
A veces, hacer las cosas más rápido no significa saltarse pasos, sino redefinir el camino de principio a fin.
|Agradecer cuando alguien te ayuda es de ser agradecido|