(2024,YOSO,自协同学习,扩散 GAN,单步生成)您只需采样一次:通过自协同扩散 GAN 驯服一步文本到图像合成

You Only Sample Once: Taming One-Step Text-To-Image Synthesis by Self-Cooperative Diffusion GANs

公和众和号:EDPJ(进 Q 交流群:922230617 或加 VX:CV_EDPJ 进 V 交流群)

目录

0. 摘要

2. 相关工作 

3. 背景

4. 方法:自协同扩散 GANs

4.1 重新审视 Diffusion GANs

4.2 我们的设计

5. 朝向一步文本到图像合成

5.1 使用预训练模型进行训练

5.2 固定噪声调度器

6. 实验


0. 摘要

我们介绍了 YOSO,一种新型的生成模型,旨在实现快速、可扩展和高保真度的一步图像合成。这是通过将扩散过程与 GAN 集成实现的。具体来说,我们通过去噪生成器本身平滑分布,执行自协同(self-cooperative)学习。我们展示了我们的方法可以作为一个从头开始进行训练的一步生成模型,并具有竞争性能。此外,我们展示了我们的方法可以扩展到微调预训练的文本到图像扩散,用于高质量的一步文本到图像合成,即使进行了 LoRA 微调。特别地,我们提供了第一个扩散 transformer,可以在 512 分辨率上进行训练并生成图像,具有无需明确训练即可适应 1024 分辨率的能力。 

2. 相关工作 

少量步文本到图像生成。最近,已经开发了几种用于几步文本到图像生成的工作。

LCM [30] 基于一致性蒸馏(consistency distillation) [49],将其调整为稳定扩散(SD),并使图像在 4 步中具有可接受的质量。然而,减少采样步骤导致生成质量较差。

InstaFlow [27] 基于矫正流(Rectified Flows) [26, 25],将其调整为稳定扩散,促进了仅一步生成文本到图像。尽管如此,生成图像的保真度仍然较低。此外,由于模型在固定数据噪声配对上的训练,失去了支持可变数据噪声组合的灵活性,这对于像图像修改或可以提高生成图像质量的迭代多步采样任务是有害的。

最近,探索了将 DM 和 GAN 结合用于一步文本到图像生成。UFOGen 将 DDGANs [52] 和 SSIDMs [57] 扩展到稳定扩散,通过将重建损失的计算从损坏样本改为清洁(clean)样本来进行修改。然而,它仍然使用损坏样本进行对抗匹配。

ADD [44] 提出了基于稳定扩散的一步文本到图像生成。它遵循早期研究,使用预训练的图像编码器 DINOv2 [35] 作为鉴别器的骨干来加速训练。然而,鉴别器设计将训练从潜在空间移动到像素空间,这大大增加了计算需求。此外,它们直接在清洁的真实数据上执行对抗匹配,增加了训练的挑战。这需要更好但昂贵的鉴别器设计和昂贵的 R1 正则化来稳定训练。

相比之下,我们通过用自生成数据替换真实数据来进行对抗训练,以平滑地实现真实数据。此外,与 UFOGen 和 ADD 相比,我们的方法可以从头开始训练以执行一步生成,这是他们没有展示的。此外,我们将我们的方法不仅扩展到 Stable Diffusion,还扩展到基于扩散 Transformer [37] 的 PixArt-α [6]。这证明了我们提出的 YOSO 的广泛应用。

(2023,训练分解,高效 DiT,高信息数据集)PIXART-α:用于逼真文本到图像合成的扩散Transformer的快速训练

3. 背景

(2022|ICLR,扩散 GAN,少量步扩散,对抗散度,非饱和 GAN)用去噪扩散 GAN 解决生成学习难题

(2024,EBGAN,扩散,变分近似)通过扩散过程改进基于能量的对抗模型

扩散-GAN 混合模型。扩散模型中的一个问题是,当去噪步长较大时,真实的 q(x_(t−1) | xt) 不再是一个高斯分布。因此,Diffusion GANs [52] 提议不再使用参数化的高斯分布来最小化负 ELBO,而是提出最小化模型 pθ(x′_(t−1) | xt) 和 q(x_(t−1) | xt) 之间的对抗差异:

其中,pθ(x0|xt) 是由 GAN 生成器强加的。 基于 GAN 的 pθ(x′_(t−1) | xt) 公式的能力,使得更大的去噪步长(即 4 步)成为可能,相比之下高斯分布要小得多。

4. 方法:自协同扩散 GANs

4.1 重新审视 Diffusion GANs

扩散-GAN 混合模型被设计用于训练大去噪步长。然而,一个关键问题是它们在损坏的数据分布上匹配生成器分布

这种公式只间接学习 pθ(x0|xt) 且 pθ(x0) =

这是用于一步生成的分布,使得学习过程不够有效。

4.2 我们的设计

为了实现更有效的一步生成学习,我们建议直接构建在干净数据上的学习目标。我们首先按以下方式构建干净数据的序列分布:

其中 q(x0) 是数据分布,而 Gθ 是去噪生成器,用于预测干净样本。如果网络 ϵθ 被参数化以预测噪声,我们有

给定构建的分布,我们可以如下制定优化目标: 

优化目标是通过对抗散度和 KL 散度的组合构建的。具体而言,对抗散度侧重于在分布级别上匹配,确保生成质量,而 KL 散度侧重于在点级别上匹配,确保模式覆盖。

然而,直接学习在干净数据分布上的对抗散度与 GAN 训练的挑战类似,这是困难的。为了解决这些挑战,之前的 Diffusion GAN [52, 57] 已经转向学习在损坏数据分布上的对抗散度。不幸的是,正如之前分析的那样,这种方法无法直接匹配 pθ(x0),从而削弱了一步生成的效果。此外,它还迫使鉴别器适应不同水平的噪声,导致其能力受限。
回想一下,p^(t)_θ (x) 被定义为

分布的质量有两个关键因素:1)可训练生成器 Gθ 的能力;2)由 xt 给出的信息。
因此,假设给定生成器 Gθ 固定,如果增加 xt 中的信息量,可以得到更好的分布。换句话说,p^(t−1)_θ (x) 很可能优于 p^(t)_θ (x)。 受到协同方法(cooperative approach) [53–55, 11] 的启发,该方法使用模型分布的马尔可夫链蒙特卡洛(MCMC)修订版本来学习生成器,我们建议使用 p^(t−1)_θ (x) 作为学习 p^(t)_θ (x) 的地面真实,构建以下训练目标:

其中 sg[·] 表示停梯度(stop-gradient)操作。这个训练目标可以看作是一种自协同方法,因为来自 p^(t−1)_θ (x) 的 ‘修订’ 样本和来自 p^(t)_θ (x) 的样本由相同的网络 Gθ 生成。请注意,我们仅在平滑学习目标时用数据分布替换 p^(t−1)_θ (x) 作为对抗散度,因为最近的研究 [32] 发现用真实数据和修订数据混合学习生成器是有益的。

在上述分布匹配目标中,我们应用了非饱和 GAN 目标来最小化边际分布的对抗散度。点匹配的 KL 散度可以通过 L2 损失进行优化。因此,可处理的训练目标如下所示:

其中 Dϕ 是鉴别器网络。我们发现自协同方法与一致性模型 [49] 相关联。然而,一致性模型将 x_(t−1) 视为 xt 的近似 ODE 解以执行点对点匹配(像素级别)。相比之下,我们提出的目标在边际分布级别上匹配 p^(t)_θ (x) 和 p^(t−1)_θ (x),这避免了与去噪步长相关的 ODE 近似误差。  为了进一步确保所提出模型的模式覆盖,我们可以将一致性损失添加到我们的目标中作为正则化,构建我们的最终训练目标: 

其中 λcon(t) 是一个依赖于时间的超参数。

5. 朝向一步文本到图像合成

由于从头训练文本到图像模型的训练成本相当昂贵,我们建议使用预训练的文本到图像扩散模型作为自协同扩散 GAN 的初始化。在本节中,我们介绍了几种基于预训练 DM 开发生成模型的基本设计,从而实现基于预训练 DM 的一步文本到图像合成。

5.1 使用预训练模型进行训练

潜在感知损失。先前的研究 [15, 14, 49] 已经确认了感知损失在各个领域的有效性。值得注意的是,最近的研究 [27, 49] 发现,LPIPS 损失 [62] 对于获得具有高样本质量的少量步扩散模型至关重要。然而,值得注意的缺点是,LPIPS 损失是在数据空间中计算的,这是昂贵的。相比之下,流行的潜在扩散模型在潜在空间中运行,以减少计算需求。因此,在训练潜在扩散模型时使用 LPIPS损失是非常昂贵的,因为它不仅需要在数据空间中计算 LPIPS 损失,还需要额外的解码操作。

意识到预训练的稳定扩散可以作为有效的特征提取器 [56],我们建议使用预训练的稳定扩散执行潜在感知损失。然而,稳定扩散是一个 UNet,其最终层预测与数据相同维度的 epsilon。因此,我们建议使用 UNet 的瓶颈层来计算:

其中 z 是由 VAE 编码的潜在图像,ctext 是文本特征。我们注意到通过稳定扩散计算潜在感知损失的好处不仅在于计算效率,而且在于融合了文本特征,这在文本到图像任务中至关重要。

潜在鉴别器。在大规模数据集上为文本到图像任务训练 GAN 面临着严重挑战。具体来说,与无条件生成不同,用于文本到图像任务的鉴别器应基于图像质量和文本对齐进行验证。这个挑战在训练的初始阶段更加明显。为了解决这个问题,之前的纯粹的文本到图像 GAN [18] 提出了复杂的学习目标,并且需要昂贵的训练成本。

已经证明,使用预训练网络作为鉴别器可以使 GAN 的学习受益。如上所述,预训练的文本到图像扩散已经学习了代表性特征。因此,我们建议应用预训练的稳定扩散来构建潜在鉴别器。与潜在感知损失类似,我们只使用一半的 UNet 作为鉴别器,后面跟着一个简单的预测头。所提出策略的优势有两方面:1)我们使用信息丰富的预训练网络作为初始化;2)鉴别器定义在潜在空间中,具有计算效率。与以前在数据空间中定义鉴别器并需要解码潜在图像并从解码器反向的、具有昂贵的计算成本的方法不同,通过应用潜在鉴别器,我们观察到训练过程更加稳定,收敛速度更快。请注意,在我们的方法中不需要昂贵的 R1 正则化。

5.2 固定噪声调度器

扩散模型中的一个常见问题是最终的损坏样本不是纯噪声。例如,稳定扩散使用的噪声计划使得终端信噪比(terminal SNR)远未达到零。最终时间步的损坏样本如下:

其中,终端 SNR 是

有效地在训练和推断之间创建了一个差距。 先前的工作 [24] 只观察到这样的问题使得扩散模型无法产生纯黑色或白色的图像,这并没有严重损害样本质量。然而,我们发现这个问题在一步生成中会导致严重的问题。如图 2 所示,如果我们直接从标准高斯分布中采样噪声,在一步生成中会出现明显的伪影。原因可能是在多步生成中,可以逐渐修复这个差距,而一步生成更直接地反映了这个差距。为了解决这个问题,我们提供了两种简单而有效的解决方案。

信息先验初始化(Informative Prior Initialization,IPI)。非零终端 SNR 问题类似于 VAE 中的先验空洞(prior hole)问题 [22, 3, 21]。因此,我们可以使用信息先验而不是非信息先验来有效解决这个问题。为简单起见,我们采用可学习的高斯分布 N(μ, σ^2·I),其最优形式如下:

其中 E_x x 和 Std(x) 可以通过有限样本有效地估计,而 ϵ′ 遵循标准高斯分布。所提出的信息先验初始化有效地解决了一步生成中的 “先验空洞问题”。如图 2 所示,一步生成中的伪影立即消除。我们注意到,这种性能是通过最小的调整实现的,从而使得通过 LoRa 微调开发一步文本到图像生成的可能性成为可能。

快速适应 V 预测(V-prediction)和零终端(Zero Terminal) SNR。信息先验初始化并不是一个完美的解决方案,当终端 SNR 非常低时,它会受到数值不稳定性的影响。如图 3 所示,我们对 PixArt-α [6] 进行微调,其终端 SNR 为 4e-5,并引入了技术和 ϵ-预测,但在一步生成中失败了。正如在 [24] 中讨论的那样,解决方案应该是 v-预测 [42] 和零终端 SNR 的组合。然而,我们发现直接切换到 v-预测和零终端 SNR 是计算量很大的,需要大量的额外迭代。这在解决具有有限计算资源的大规模文本到图像问题中是不可接受的。为了解决这个问题,我们提出了一个适应阶段,将预训练的扩散模型微调到 v-预测和零终端 SNR。

适应阶段-I 切换到 v-预测:

其中 θ 表示我们要获取的 v-预测模型的参数,ϕ 表示带有 ϵ-预测的冻结预训练模型的参数。

适应阶段-II 切换到零终端 SNR:

请注意,在适应阶段-II 中,我们将噪声调度器更改为零终端 SNR。但对于教师模型,我们保持噪声调度器不变。这种方法避免了零终端 SNR 的 ϵ-预测的数值不稳定性问题。我们注意到,零终端 SNR 在每个时间步上具有比原始调度更低的 SNR,因此,通过从教师中蒸馏,损失构成了一个有效的目标来构建零终端 SNR 学生。

我们注意到,这种适应阶段收敛迅速,通常只需要1000次迭代训练。这使得可以从预训练的 ϵ-预测模型快速适应到 v-预测和零终端SNR,从而全面缓解了噪声调度中的非零终端 SNR 问题。 

6. 实验

注:从实验结果看,验证了 Diffusion GANs [52]  中的说法(直接从复杂分布单步生成样本会影响性能:YOSO 3.82 vs DDGANs 3.75),但是 YOSO 的单步生成实现了高效生成(0.05s vs 0.21s)。因此,在应用时,需要根据实际情况进行权衡。

对抗散度 D_adv(p_d || p^t_θ)。 我们提出的 YOSO 的关键设计是通过使用自生成的(self-generated)数据而不是真实数据作为地面真实来平滑分布,从而执行对抗散度。 我们评估使用 D_adv(p_d || p^t_θ) 作为对抗散度的变体。 如表 1 所示,该变体的性能明显比 YOSO 差。 此外,除了样本质量之外,我们发现我们提出的 YOSO 的训练比变体稳定得多。如图 4 所示,该变体的判别器损失并不稳定,并且比我们的小得多。 这表明我们的方法可以有效地平滑分布,使假样本和真实样本的分布彼此更接近,从而使判别变得更加困难,而导致更高的判别器损失。 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/473789.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Vue3 中应该使用 Ref 还是 Reactive?

一、引言 在Vue 3中,构建响应式数据结构是构建用户界面和交互体验的核心部分。而在创建这些响应式数据时,我们有两个主要工具:reactive和ref。选择使用哪一个,实际上取决于你的数据结构和访问需求。 reactive主要用于处理复杂的数…

麒麟 V10 一键安装 Oracle 19C 19.22 单机版

Oracle 一键安装脚本,演示 麒麟 V10 一键安装 Oracle 19C 19.22 单机版过程(全程无需人工干预):(脚本包括 ORALCE PSU/OJVM 等补丁自动安装) ⭐️ 脚本下载地址:Shell脚本安装Oracle数据库 脚…

使用paho.mqtt.client实现MQTT Client连接EMQX Broker

目录 概述 1 认识paho.mqtt.client 2 实现MQTT Client 2.1 功能介绍 2.2 paho.mqtt.client库函数介绍 2.3 MQTT Client实现 2.3.1 创建项目 2.3.2 编写MQTT Client代码 2.3.3 Log工具源码 2.4 功能测试代码实现 2.4.1 功能介绍 2.4.2 代码实现 3 测试 3.1 EMQX上创…

学点儿Java_Day6_面向对象:类、封装、构造方法

1 类 1.1 定义 类:对现实世界中事物的抽象。Student 对象:现实世界中具体的个体。张三、李四 这些具体的学生 面向对象的特征:抽象、封装、继承、多态 OOP: Object Oriented Programming 类和对象的总结: 1、现实世界都是由很多…

语音识别教程:Whisper

语音识别教程:Whisper 一、前言 最近看国外教学视频的需求,有些不是很适应,找了找AI字幕效果也不是很好,遂打算基于Whisper和GPT做一个AI字幕给自己。 二、具体步骤 1、安装FFmpeg Windows: 进入 https://github.com/BtbN/FF…

python爬虫学习第二天----类型转换

🎈🎈作者主页: 喔的嘛呀🎈🎈 🎈🎈所属专栏:python爬虫学习🎈🎈 ✨✨谢谢大家捧场,祝屏幕前的小伙伴们每天都有好运相伴左右,一定要天天…

C语言 指针练习

一、 a、b是两个浮点型变量&#xff0c;给a、b赋值&#xff0c;建立两个指针分别指向a的地址和b的地址&#xff0c;输出两个指针的值。 #include<stdio.h> int main() {float a,b,*p1,*p2;a10.2;b2.3;p1&a;p2&b;printf("a%f,b%f\n",a,b);printf("…

墨菲安全在软件供应链安全领域阶段性总结及思考

向外看&#xff1a;墨菲安全在软件供应链安全领域的一些洞察、思考、行动 洞察 现状&挑战&#xff1a; 过去开发安全体系是无法解决软件供应链安全问题的&#xff1b;一些过去专注开发安全领域的厂商正在错误的引导行业用开发安全思维解决软件供应链安全问题&#xff0c;治…

ResNet目标检测算法实现交通灯分类

红绿灯识别方案&#xff1a;https://zhuanlan.zhihu.com/p/674791906 目录 一、制作数据集二、ResNet算法三、pytorch转onnx文件四、onnx推理测试五、onnx转mnn 一、制作数据集 1、数据集划分 将红绿灯数据集大文件夹中不同类别的小文件夹中的图片按照9&#xff1a;1进行划分…

【Flutter】文件选择器(file_picker)的用法

Flutter 没有提供内置的文件选择器&#xff0c;但社区内有人贡献了一个比较完整的解决方案——file_picker。 file_picker 的 API 简洁易用&#xff0c;支持全平台&#xff08;Android / iOS / Mac / Linux / Windows&#xff09;&#xff0c;是我开发桌面应用时的首选。 这边…

MySql实战--一条SQL查询语句是如何执行的?

平时我们使用数据库&#xff0c;看到的通常都是一个整体。比如&#xff0c;你有个最简单的表&#xff0c;表里只有一个ID字段&#xff0c;在执行下面这个查询语句时&#xff1a; select * from T where ID10&#xff1b; 我们看到的只是输入一条语句&#xff0c;返回一个结果…

Chain of Note-CoN增强检索增强型语言模型的鲁棒性

Enhancing Robustness in Retrieval-Augmented Language Models 检索增强型语言模型&#xff08;RALMs&#xff09;在大型语言模型的能力上取得了重大进步&#xff0c;特别是在利用外部知识源减少事实性幻觉方面。然而&#xff0c;检索到的信息的可靠性并不总是有保证的。检索…

阿里云99元服务器40G ESSD Entry系统盘够用吗?

阿里云99元服务器40G ESSD Entry云盘够用吗&#xff1f;够用&#xff0c;操作系统占15GB左右&#xff0c;还有25G富余。如果是40G ESSD Entry系统盘不够用&#xff0c;还可以为云服务器另外挂载数据盘&#xff0c;所以不用担心40G系统盘不够用。可以在阿里云CLUB中心查看 aliyu…

基于SpringBoot实现WebSocket实时通讯的服务端和客户端

实现功能 服务端注册的客户端的列表&#xff1b;服务端向客户端发送广播消息&#xff1b;服务端向指定客户端发送消息&#xff1b;服务端向多个客户端发送消息&#xff1b;客户端给服务端发送消息&#xff1b; 效果&#xff1a; 环境 jdk&#xff1a;1.8 SpringBoot&#x…

some/ip CAN CANFD

关于SOME/IP的理解 在CAN总线的车载网络中&#xff0c;通信过程是面向信号的 当ECU的信号的值发生了改变&#xff0c;或者发送周期到了&#xff0c;就会发送消息&#xff0c;而不考虑接收者是否需要&#xff0c;这样就会造成总线上出现不必要的信息&#xff0c;占用了带宽 …

get_local_ip.bat:快速获取IPv4地址

批处理脚本&#xff0c;用于在Windows命令提示符下获取本地计算机的IPv4地址。 echo off ipconfig | findstr IPv4 pause - echo off&#xff1a;这会关闭命令提示符窗口中的命令回显&#xff0c;使得在运行脚本时不会显示每条命令的执行结果。 - ipconfig&#xff1a;这是一…

流畅的 Python 第二版(GPT 重译)(十三)

第二十四章&#xff1a;类元编程 每个人都知道调试比一开始编写程序要困难两倍。所以如果你在编写时尽可能聪明&#xff0c;那么你将如何调试呢&#xff1f; Brian W. Kernighan 和 P. J. Plauger&#xff0c;《编程风格的要素》 类元编程是在运行时创建或自定义类的艺术。在 P…

元素定位之xpath和css

元素定位 xpath绝对路径相对路径案例xpath策略&#xff08;路径&#xff09;案例xpath策略&#xff08;层级、扩展&#xff09;属性层级与属性层级与属性拓展层级与属性综合 csscss选择器&#xff08;id、类、标签、属性&#xff09;id选择器类选择器标签选择器属性选择器案例-…

按面积筛选填充二值图中的孔洞-python源码

目录 &#x1f64b;&#x1f64b;需求 &#x1f345;&#x1f345;解决方案 &#x1f64b;&#x1f64b;需求 前提条件是二值图中0是背景&#xff0c;255是前景。 二值化后的影像中有很多小孔洞&#xff0c;现在需要按孔洞面积进行筛选&#xff0c;填充面积小于阈值的孔洞&…

何恺明重提十年之争——模型表现好是源于能力提升还是捕获数据集偏见

2011年,知名学者Antonio Torralba和Alyosha Efros提出了“数据集偏差之战”&#xff0c;他们发现机器学习模型很容易“过拟合”到特定的数据集上&#xff0c;导致在其他数据集上表现不佳。过去十年&#xff0c;随着深度学习革命的到来&#xff0c;建立多样化、大规模、全面且尽…
最新文章