NVIDIA 自动引导技术:改善扩散模型中的图像质量和变化
NVIDIA 近期提出了一种名为自动引导的新方法,旨在改善扩散模型中图像的质量和变化,而不影响其与给定条件(如类标签或文本提示)的一致性。当前的方法通常会以牺牲多样性为代价来提高图像质量,从而限制了它们在医学诊断和自动驾驶等各种现实场景中的适用性。然而,克服这一挑战可以提升人工智能系统在生成逼真且多样化图像方面的性能,推动当前人工智能能力的边界。
目前解决这一挑战的方法主要是使用无分类器引导(CFG),它使用无条件模型来引导有条件模型。虽然 CFG 改善了提示对齐和图像质量,但降低了图像变化。这种权衡发生在图像质量和变化的影响在本质上是纠缠在一起的,难以独立控制它们。此外,CFG 局限于有条件生成,并存在任务差异问题,导致图像构成的偏斜和过于简化的图像。这些限制影响了方法的性能,并限制了它在生成多样化和高质量图像方面的应用。
NVIDIA 的研究人员提出了一种名为自动引导的新方法,它涉及使用主模型的规模较小、训练时间较短的版本来引导生成过程,而不是使用无条件模型。这种方法通过将图像质量与变化解耦,从而更好地控制这些方面,同时保持与主模型相同的条件,确保生成图像的一致性。这种创新方法显著提高了图像生成的质量和变化,在 ImageNet-512和 ImageNet-64等基准测试中刷新了记录,可以应用于有条件和无条件模型。
该方法的核心是训练主模型的规模较小、训练时间较短的引导模型。论文详细介绍了去噪扩散过程,通过反转随机损坏过程生成合成图像。研究人员使用 Fréchet Inception Distance(FID)和 FDDINOv2等指标对模型进行评估,结果显示图像生成质量有了显著提高。例如,在 ImageNet-512中使用小模型(EDM2-S),自动引导将 FID 从2.56提高到1.34,超越了现有方法。
广泛的定量结果证明了自动引导的有效性。该方法在公开可用的网络上实现了64×64和512×512图像分辨率的 FID 记录,表明图像质量有了显著提升,而没有牺牲多样性。评估包括比较不同方法的表格,展示了自动引导在 CFG 和其他基线方法上的优越性能。例如,该方法在 ImageNet 数据集上实现了87.5% 的准确率,超过了先前的最先进水平。
这种改进扩散模型中图像质量的新方法涉及使用模型的规模较小、训练时间较短的引导模型。所提出的自动引导方法克服了像 CFG 这样的现有方法的局限性。这种创新方法在基准测试中取得了最先进的成绩,显著推进了人工智能研究领域,为生成高质量和多样化图像提供了更高效、更有效的解决方案。