全新的生成模型MeanFlow,最大亮点在于它彻底跳脱了传统训练范式——无须预训练、蒸馏或课程学习,仅通过一次函数评估(1-NFE)即可完成生成。

MeanFlow在ImageNet 256×256上创下3.43 FID分数,实现从零开始训练下的SOTA性能。

图1(上):在ImageNet 256×256上从零开始的一步生成结果

在ImageNet 256×256数据集上,MeanFlow在一次函数评估(1-NFE)下达到了3.43的FID分数,性能相比此前同类最佳方法有50%到70%的相对提升(见图1左)。

此外,MeanFlow训练过程从零开始,无需预训练、蒸馏或课程学习。

图1(左):算力和一次函数评估FID分数

其中iCT、Shortcut和MF都是一次函数评估(1-NFE),而IMM则使用了两次函数评估(2-NFE)的引导策略。

此外,新方法还能自然地将「无分类器引导」(Classifier-Free Guidance,CFG)融入目标速度场,在采样阶段使用引导时不会带来额外的计算开销。

地址:

论文地址: https://arxiv.org/html/2505.13447v1

github: https://github.com/haidog-yaqub/MeanFlow (非官方)