从VAE到Diffusion Models
Diffusion Model简史
GANs诞生于2014年,diffusion model比GANs小一岁,第一篇difusion model论文《DeepUnsupervised Learning using Nonequilibrium Thermodynamics》发表与2015年。这两种全新的生成式模型刚被提出来的时候,都是一个全新的理论,但在各种任务运用上效果并不是非常理想。只不过GANs诞生后,DCGAN、WGAN等GANS的变式模型在各种任务上取得了巨大的成功,很快GANs便变得非常流行。
diffusion model沉寂了好几年,直到2020年《Denoising Diffusion Probabilistic Models》以稳定的变分目标训练的模型在图像生成方面可以匹配或超过GANs。随后在论文《Score-Based GenerativeModeling through Stochastic Differential Equations》论文中,diffusion model被证明与基于分数的模型score-based model有着密切的联系,这两种模型最近在随机微分方程的框架下得到统一。 时间来到2021年,diffusion model的论文如雨后春笋一般冒出,在图片生成、语音生成、视频生成、文本生成、三维模型生成、时间序列生成、点云生成等方面取得了巨大成功。
温习VAE
我们考虑以下的生成模型: pθ(x)=∫zpθ(x|z)pθ(z) 其中 z 代表潜在的数据分布,x 代表真实的数据分布。我们用MLE估计模型参数,用蒙特卡洛采样近似 z 上的积分,方程如下: θ∗=argmaxθEx ˆp(x),z p(z)[log\ pθ(x|z;θ)] 但是这种方法不缩放到高维的 z ,因为一个随机的潜在编码 z 的可能性 p(z) 对应于任何特定高维中的数据点都是非常小的。
所以VAE通过从一个新的分布qϕ(z|x)当中进行采样,并与生成模型一起优化,将其写为: log\ p(x)≥Ez qϕ(z|x)[log\ pθ(x|z)p(z)qϕ(z|x)] 神经网络训练过程中肯定需要求解梯度,VAE中有一个著名的重参数化技巧,将采样过程定义为确定性的数据依赖函数和数据独立噪声的组合,避免了直接求解梯度。
从VAE到层次VAE
我们这里引入了两个潜在变量 z1
和 z2,我们的联合分布便写成了:
p(x)=∫z1∫z2pθ(x,z1,z2)dz1,dz2 同样的,我们的优化目标模型转移图就成了: log\,\,p(x)≥Ez1,z2 qϕ(z1,z2|x)[log\,\,pθ(x,z1,z2)qϕ(z1,z2|x)]
从层次VAE到Diffusion Probabilistic Models
我们考虑在一个 0-T
的时间内,逐渐往原始数据中添加噪声,添加的噪声逐渐增加:
我们将Diffusion Model看成多个分层的VAE来实现,将它们区别开来的是一个独特的推理模型,它不包含可学习的参数,并且被构造成最终的潜在分布 q(xT),收敛于一个标准高斯分布。
Diffusion Model的变分下界写成: −L=Eq[−logp(xT)−T∑t≥1logpθ(xt−1|xt)q(xt|xt−1)]
注意将其对比层次VAE的变分下界看。
我们不需要再训练的每一步上做一个完整的正向和反向过程,只需要在每一个minibatch中优化pθ(xt−1|xt)即可。
从Diffusion Probabilistic Models到Denoising Diffusion Probabilistic Mdoels
首先假设数据符合高斯分布,并且数据分布之间是独立的(独立性假设),关于这一部分的推导可以看之前的博客。 p(xt−1|xt,x0) N(xt−1;˜μt(xt,x0),˜βtI)
where ˜μt(xt,x0)=√αt(1−ˉαt−1)1−ˉαtxt+√ˉαt−1βt1−ˉαt1√ˉαt(xt−√1−ˉαtzϵ)
=1√αt(xt−βt√1−ˉαtϵ)
and ˉβt:=1−ˉαt−11−ˉαtβt
记为方程(1)
用x0表示原始的数据分布,xt表示t时刻的数据分布。根据上面的推导,用xt表示x0: xt(x0,ϵ)=√ˉαtx0+√1−ˉαtϵ 同样的,x0可以用xt表示为: x0=xt(x0,ϵ)−√1−ˉαtϵ√ˉαt 我们的优化目标可以写成: Lt−1=Et,xt,x0[12σ2t||˜μt(xt,x0)−μθ(xt,t)||]+C 前向过程的后验分布写成xt(x0,ϵ),方程(1)就可以化简成: ˜μt(xt(x0,ϵ),1√ˉαt(xt(x0,ϵ)−√1−ˉαtϵ)) =βt√ˉαt−1(xt−ϵ√1−ˉαt)√ˉαt(1−ˉαt)+√αt(1−ˉαt−1)1−ˉαtxt =(βt√ˉαt−1√ˉαt(1−ˉαt)+√αt(1−ˉαt−1)1−ˉαt)xt−βt√ˉαt−1√1−ˉαt√ˉαt(1−ˉαt)
至此,我们的训练目标进一步化简: Lt−1−C=Ex0,ϵ,t[12σ2t‖1√αt.(xt(x0,ϵ)−βt√1−ˉαtϵ)−μθ(xt(x0,ϵ),t)||] 经过上述的推导,我们已经从最开始的预测数据分布变为:提供模型预测仿射变换。这个仿射变换是一个与时间相关的常数和一个自由参数的组合。这种参数化方法,只需要用神经网络负责预测噪声的柱状结构。至此我们从学习数据分布变成学习噪声分布,噪声可以看成数据分布的增广,蕴含了许多潜在的数据分布信息。
所以省略掉前置diffusion固定参数,最终的化简目标就可以写成: Ex0,ϵ,t[‖ϵ−ϵθ(xt(x0,ϵ),t)||]
总结:VAE和Diffusion Model的异同
相同之处:
- 在逆向过程中,将一些潜在变量进行采样,并用神经网络将其转化为数据.
- 有相应的正向过程,将数据转化为一系列的潜在表征.
- 训练目标是数据似然的下界,可以用类似于VAE的方式导出.
- DDPM中使用的变分边界强调了与变分自动编码器和神经压缩的进一步联系
不同之处:
- DDPM中的正向过程没有学习参数
- DDPM中的正向过程逐步破坏所有关于输入的信息,这样最终的分布q(xT|x0)通过构造是一个标准高斯分布。但是对于VAEs,却希望z包含关于x的一些信息。
- 在DDPM中,每个潜在值的维数必须与数据匹配。在VAEs中,可以降低维度.
- 在DDPM中,每个生成层共享相同的神经网络参数。(因为网络较深,并且存在大量重复信息,设置参数共享利用参数存在大量冗余的特点,目的都是为了减少参数数量,达到减少运算量去除冗余的目的。)
- 本文作者: 李宝璐
- 本文链接: https://libaolu312.github.io/2023/11/20/从VAE到Diffusion-Models/
- 版权声明: 本博客所有文章除特别声明外,均采用 MIT 许可协议。转载请注明出处!
Related Issues not found
Please contact @libaolu312 to initialize the comment