全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2022-10-08_对抗生成网络GAN系列——WGAN原理及实战演练

您的位置:首页 >> 新闻 >> 行业资讯

对抗生成网络GAN系列——WGAN原理及实战演练 本文为稀土掘金技术社区首发签约文章,14天内禁止转载,14天后未获授权禁止转载,侵权必究! ??作者简介:秃头小苏,致力于用最通俗的语言描述问题 ??往期回顾:对抗生成网络GAN系列——GAN原理及手写数字生成小案例??对抗生成网络GAN系列——DCGAN简介及人脸图像生成案例??对抗生成网络GAN系列——AnoGAN原理及缺陷检测实战??对抗生成网络GAN系列——EGBAD原理及缺陷检测实战 ??近期目标:写好专栏的每一篇文章 ??支持小苏:点赞????、收藏?、留言?? 对抗生成网络GAN系列——WGAN原理及实战演练写在前面??在前面我已经写过好几篇关于GAN的文章,感兴趣的可以点击下列链接了解详情: [1]对抗生成网络GAN系列——GAN原理及手写数字生成小案例??????[2]对抗生成网络GAN系列——DCGAN简介及人脸图像生成案例??????[3]对抗生成网络GAN系列——CycleGAN原理??????[4]对抗生成网络GAN系列——AnoGAN原理及缺陷检测实战??????[5]对抗生成网络GAN系列——EGBAD原理及缺陷检测实战????????在文章[5]的最后,我们从训练结果中可以看出效果并不是很理想,其实难以训练是GAN网络训练普遍存在的问题。本篇文章将为大家带来WGAN(Wasserstein Generative Adversarial Networks ),旨在解决GAN难train的问题。这篇论文中有大量的理论推导,我不会带着大家一个个推,当然很多我也不会,但是我尽可能的把一些关键部分给大家叙述清楚,让大家从心底认可WGAN,觉得WGAN是合理的,是美妙的。 ??准备好了吗,就让我们一起来学学WGAN吧!?????? WGAN原理详解GAN为什么训练困难??上文我们谈到GAN普遍存在训练困难的问题,而WGAN是用来解决此问题的。所谓对症下药,我们第一步应该要知道GAN为什么会存在训练难的问题,这样我们才能从本质上对其进行改进。下面就跟随我的步伐一起来看看吧!!!?????? ??还记得我们在[1]中给出的GAN网络的损失函数吗?如下图所示: image-20220714095708540??为了方便表述,对上图公式做如下调整: $$\mathop {\min }\limits_G \mathop {\max }\limits_D V = {E_{x \sim {{\rm{p}}r}}}[\log D(x)] + {E{x \sim {{\rm{p}}_g}}}[\log (1 - D(x))]$$ ??即把后一项的G(z)用x来表示,x为生成器生成的分布。 ??我们现在希望求得生成器固定是最大化的判别器D。首先,我们对于一个随机的样本,它可能是真实样本,也可能是生成的样本,那么对于这个样本的损失为: Pr(x)logD(x)+Pg(x)log[1?D(x)] ??预求最大化的D,则对上式的D(x)求导,并让上式导函数为0,即: Pr(x)D(x)?Pg(x)1?D(x)=0 ??化简上式,得最优的D表达式为: D?(x)=Pr(x)Pr(x)+Pg(x)?????? ———— 式1 ??我们可以来看看这个式1是否符合我们的直觉。若、pr(x)=0、pg(x)≠0表示x完全服从生成分布,是假图像,所以最优判别器D给出的概率为0;若、pr(x)≠0、pg(x)=0表示x完全服从真实分布,是真图像,所以最优判别器D给出的概率为1;若pr(x)=pg(x),表示x服从生成分布和服从真实分布的数据一样多,因此最优判别器D给出的概率为50%。 ??如今我们已经找到了最大化的D,现要将其固定,寻找最小化的G,即求下式: $$\mathop {\min }\limits_G V = {E_{x \sim {{\rm{p}}r}}}[\log D(x)] + {E{x \sim {{\rm{p}}_g}}}[\log (1 - D(x))]$$ ?? ———— 式2 ??将最大化的D即式1的D?(x)代入式2得: $$\mathop {\min }\limits_G V = {E_{x \sim {{\rm{p}}_r}}}[\log (\frac{{{{\rm{p}}_r}(x)}}{{{{\rm{p}}_r}(x) + {{\rm{p}}g}(x)}})] + {E{x \sim {{\rm{p}}_g}}}[\log (\frac{{{{\rm{p}}_g}(x)}}{{{{\rm{p}}_r}(x) + {{\rm{p}}_g}(x)}})]$$ ??再化简一步得式3: $$\mathop {\min }\limits_G V = {E_{x \sim {{\rm{p}}_r}}}[\log (\frac{{{{\rm{p}}_r}(x)}}{{\frac{1}{2}{{\rm{p}}_r}(x) + {{\rm{p}}g}(x)}})] + {E{x \sim {{\rm{p}}_g}}}[\log (\frac{{{{\rm{p}}_g}(x)}}{{\frac{1}{2}{{\rm{p}}_r}(x) + {{\rm{p}}_g}(x)}})] - 2\log 2$$ ?? ———— 式3 ??化简成式3的形式是为了和KL散度和JS散度相联系。我们先来介绍KL散度和JS散度的定义:【大家不要觉得散度这个词好像很高大上一样,大家其实就可以理解为距离】 KL散度 KL(P1||P2)=Ex~P1logP1P2上式是用期望来表示KL散度的,我们也可以用积分或求和形式来表达,如下: KL(P1||P2)=∫xP1logP1P2dx或KL(P1||P2)=∑p1logP1P2我来大致的解释一下KL散度的含义,用KL(P1||P2)=∑P1(?logP2?(?logP1))解释,如下图: image-20221004162943163??关于KL散度我就介绍这么多,它还有一些性质,像非对称性等等,我这里就不过多介绍了,感兴趣的可以自己去阅读阅读相关资料。 JS散度 $$JS(P_1}|{P_2) = \frac1}{2}KL({P_1}|\frac{{{P_1+P_2}}}{2}) + \frac{1}{2}KL({P_2}|\frac{{{P_1+ {P_2}}}{2})$$ 可以看出,JS散度是根据KL散度来定义的,它具有对称性。 ??有了JS散度的定义,我们就可以将式3变换成如下形式: $$\mathop\min }\limits_G V = 2JS({P_r}|{P_g) - 2\log 2$$ ???? ———— 式4 ??这时候肯定很多人会想了,为什么我们需要把式3化成式4这个JS散度的形式,这是因为我们的GAN训练困难很大原因就是这个JS散度捣的鬼。?????? ??为什么说训练困难是JS散度捣的鬼呢?通过上文我们知道,我们将判别器训练的越好,即判别器越接近最优判别器,此时生成器的loss会等价为式4中的JS散度的形式,当我们训练生成器来最小化生成器损失时也就是最小化式4中的JS散度。这这过程看似非常的合理,只要我们不断的训练,真实分布和生成分布越来越接近,JS散度应该越来越小,直到两个分布完全一致,此时JS散度为0。 ??但是理想很丰满,现实很骨感,JS散度并不会随着真实分布和生成分布越来越近而使其值越来越小,而是很大概率保持log2不变。 image-20221004183627189??如上图所示,随着pg和pdata(也就是上文中所述的pr)越来越近,它们的JS散度却不发生变化,一直等于log2,只有当pg和pdata有重叠时才会发生变化,当完全重叠时,JS散度的值为0。也就是说,不论pg和pdata相距多远,只要它们没有重叠,那么它们的JS散度就一直是常数log2,也就是在训练过程中loss一直不发生变化,这也意味着生成器的梯度一直为0,即生成器产生了梯度消失的现象。 ??读了上文,我觉得你至少应该有两个疑问,其一是为什么两个分布不重合,它们JS散度一直为log2,其二为既然只要pg和pdata有重叠,那么它们的JS散度就不是log2,这样我们是不是就可以更新梯度了呢?那么它们重叠的概率大吗?我们一个一个的来解决大家的疑惑。?????? 什么两个分布不重合,它们JS散度一直为log2 这个其实是由JS散度的性质来决定的,这里带大家推一推。首先JS散度的表达式如下: $$JS(P_1}|{P_2) = \frac1}{2}KL({P_1}|\frac{{{P_1+P_2}}}{2}) + \frac{1}{2}KL({P_2}|\frac{{{P_1+ {P_2}}}{2})$$ 上文我也给出了KL散度的公式,将KL散度公式代入上式,得: $$JS(P_1}|{P_2) = \frac{1}{2}\sum {{p_1}(x)\log } \frac{{2{p_1}(x)}}{{{p_1}(x) + {p_2}(x)}} + \frac{1}{2}\sum {{p_2}(x)\log } \frac{{2{p_2}(x)}}{{{p_1}(x) + {p_2}(x)}}$$ 再化简上式,将log2提出来,注意这里可以提是因为∑p1(x)=∑p2(x)=1,提取后公式如下: $$JS(P_1}|{P_2) = \frac{1}{2}\sum {{p_1}(x)\log } \frac{{{p_1}(x)}}{{{p_1}(x) + {p_2}(x)}} + \frac{1}{2}\sum {{p_2}(x)\log } \frac{{{p_2}(x)}}{{{p_1}(x) + {p_2}(x)}} + \log 2$$ 现在大家注意到上式已经有一个log2了,为证明我们的结论,我们只需证明两个分布不重合时上式左侧两项为0即可。我们以下图为例进行讲解: ??对于上图中的两个分布和P1和P2,可以看出它们没有重叠部分。我们设p1(x)为x落在P1分布上的概率,设p2(x)为x落在P2分布上的概率,我们来看JS(P1||P2)的左边两项,即12∑p1(x)logp1(x)p1(x)+p2(x)+12∑p2(x)logp2(x)p1(x)+p2(x), ??当x5时,p2(x)近似为0,则: 12∑p1(x)logp1(x)p1(x)+p2(x)+12∑p2(x)logp2(x)p1(x)+p2(x)=12∑p1(x)logp1(x)p1(x)+0+12∑0log0p1(x)+0=0 ??当x≥5时,p1(x)近似为0,则: 12∑p1(x)logp1(x)p1(x)+p2(x)+12∑p2(x)logp2(x)p1(x)+p2(x)=12∑0log00+p2(x)+12∑p2(x)logp2(x)0+p2(x)=0 ??因此对于任意的x都会有12∑p1(x)logp1(x)p1(x)+p2(x)+12∑p2(x)logp2(x)p1(x)+p2(x)=0,进而会有JS(P1||P2)=log2。?????? 这部分主要参考了这篇文章,我认为其对JS散度为什么等于log2解释的非常清楚?????? 任意的两个分布pg和pdata重叠的概率有多大 ??首先,我直接给大家明确结论,重叠概率很小,特别小。我说明一下这里所说的重叠概率指的是重叠部分不可忽略的概率,也就是说pg和pdata可能会重叠,但是往往重叠部分都是可以忽略的。这部分大家可以参考这篇文章,写的非常好,对于这部分的解释也比较全面。 ??我从两个角度帮助大家理解,其一,pg和pdata假设为一条曲线,pg开始往往都是随机生成的,所以很难和pdata重合,往往都是有一些交点,而这些交点是可以忽略的。实际上,pg和pdata的维度往往很高,它们完全重叠的概率非常之低。 image-20221004201438790??其二,我们往往是从pg和pdata中采样一些点出来训练,即使pg和pdata有重叠,但是经过采样后,它们很大可能就没有重叠了。 ??解释了这么多,大家应该知道为什么GAN会训练困难了吧。最后总结一下,这是因为当判别器训练最优时,生成器的损失函数等价于JS散度,其梯度往往一直为0,得不到更新,所以很难train。 ??我不知道大家是否会有这样的疑问,既然说生成器梯度得不大更新,为什么我们在训练GAN时还是能得到一些较好的图片呢,不应该什么也得不到呢。我是这样认为的,我们上述的推导都是建立在最优判别器的基础上的,但是在我们实操过程中往往一开始判别器性能是不理想的,所以生成器还是有梯度更新的。还有一点,就是我之前的文章代码中生成器的损失其实使用的?logD(x),这种损失函数也会存在一些问题,往往出现梯度不稳定,模式崩溃问题,但是梯度消失问题出现比较少,所以还是能训练的。关于使用这种损失函数带来的缺陷我这里也不叙述了,大家感兴趣的可以看看这篇文章。?????? EM distance(推土机距离)的引入??我们上文详细分析了普通GAN存在的缺陷,主要是由于和JS散度相关的损失函数导致的。大佬们就在思考能否有一种损失能够代替JS散度呢?于是,WGAN应运而生,其提出了一种新的度量两个分布距离的标准——Wasserstein Metric,也叫推土机距离(Earth-Mover distance)。下面就让我们来看看什么是推土机距离吧!!!?????? 【这部分参考此篇文章】 ??下图左侧有6个盒子,我们期望将它们都移动到右侧的虚线框内。比如将盒子1从位置1移动到位置7,移动了6步,我们就将此步骤的代价设为6;同理,将盒子5从位置3移动到位置10,移动了7步,那么此步骤的代价为7,依此类推。 1????????????????图1 EM distance示例 ??很显然,我们有很多种不同的方案,下图给出了两种不同的方案: 2??上图中右侧的表格表示盒子是如何移动的。比如在γ1中,其第一行第一列的值为1,表示有1个框从位置1移动到了位置7;第一行的第四列的值为2,表示有2个框从位置1移动到了位置10。上图中给出的两种方案的代价总和都为42,但是对于一个问题并不是所有的移动方案的代价都是固定的,比如下图: 3??在这个例子中,上图展示的两种方案的代价是不同的,一个为2,一个为6。,而推土机距离就是穷举所有的移动方案,最小的移动代价对应的就是推土机距离。对应本列来说,推土机距离等于2。 ??相信通过上文的表述,你已经对推土机距离有了一定了了解。现给出推土机距离是数学定义,如下: W(Pr,Pg)=infγ∈∏(Pr,Pg)E(x,y)[||x?y||] ??看到这个公式大家是不是都懵逼了呢,这里做相关的解释。∏(Pr,Pg)表示边缘分布和Pr和Pg所有组合起来的联合分布γ(x,y)的集合。我们还是用图1中的例子来解释,∏(Pr,Pg)就表示所有的运输方案γ,下图仅列举了两种方案: 4E(x,y)[||x?y||]可以看成是对于一个方案γ移动的代价,infγ∈∏(Pr,Pg)E(x,y)[||x?y||]就表示在所有的方案中的最小代价,这个最小大家就是W(Pr,Pg),即推土机距离。?????? ??现在我们已经知道了推土机距离是什么,但是我们还没解释清楚我们为什么要用推土机距离,即推土机距离为什么可以代替JS散度成为更优的损失函数?我们来看这样的一个例子,如下图所示: ??上图有两个分布和P1和P2,P1在线段AB上均匀分布,P2在CD上均匀分布,参数θ可以控制两个分布的距离。我们由前文对JS散度的解释,可以得到: $$JS(P_1}|{P_2) = \left{log2θ≠00θ=0\right.$$ ??而对于推土机距离来说,可以得到: W(P1,P2)=|θ| ??这样对比可以看出,推土机距离是平滑的,这样在训练时,即使两个分布不重叠推土机距离仍然可以提高梯度,这一点是JS散度无法实现的。?????? WGAN的实现??现在我们已经有了推土机距离的定义,同时也解释了推土机距离相较于JS散度的优势。但是我们想要直接使用推土机距离来定义生成器的损失似乎是困难的,因为这个式子W(Pr,Pg)=infγ∈∏(Pr,Pg)E(x,y)[||x?y||]是难以直接求解的,但是呢,作者大大用了一个定理将上式变化成了如下形式: $$\rm{W}}({P_r},{P_g}) = \frac{1}{k}\mathop {\sup }\limits_{|f|{|_L\le K} {E_{x \sim {{\rm{P}}r}}}[f(x)] - {E{x \sim {{\rm{P}}_g}}}[f(x)]$$ ??注意上式中的f有一个限制,即||f||L≤K,我们称为lipschitz连续条件。这个限制其实就是限制了函数f的导数。它的定义如下: |f(x1)?f(x2)|≤K|x1?x2| 即: $$\fracf(x_1)-f(x_2)|x_1-x2|\le K$$ ??很显然,lipschitz连续就限制了f的斜率的绝对值小于等于K,这个K称为Libschitz常数。我们来举个例子帮助大家理解,如下图所示: image-20221005103024152??上图中log(x)的斜率无界,故log(x)不满足lipschitz连续条件;而sin(x)斜率的绝对值都小于1,故sin(x)满足lipschitz连续条件。 ??这样,我们只需要找到一个lipschitz函数,就可以计算推土机距离了。至于怎么找这个lipschitz函数呢,就是我们搞深度学习的那一套啦,只需要建立一个深度学习网络来进行学习就好啦。实际上,我们新建立的判别器网络和之前的的基本是一致的,只是最后没有使用sigmoid函数,而是直接输出一个分数,这个分数可以反应输入图像的真实程度。 ??呼呼呼~~,WGAN的原理就为大家介绍到这里了,大家掌握了多少呢?其实我认为只看一篇文章是很难把WGAN的所有细节都理解的,大家可以看看本文的参考文献,结合多篇文章看看能不能帮助大家解决一些困惑。?????? WGAN代码实战??WGAN的代码实战我不打算贴出一堆代码了,只说明一下WGAN相较于普通GAN做了哪些改变。首先我们给出论文中训练WGAN的流程图,如下: image-20221005112701037??其实WGAN相较于原始GAN只做了4点改变,分别如下: 判别器最后不使用sigmoid函数生成器和判别器的loss不取log每次更新判别器参数后将判别器的权重截断不适应基于动量的优化算法,推荐使用RMSProp现在代码中分别对上述的4点做相关解释:【很简单,所以大家想要将原始GAN修改为WGAN就按照下列的几点来修改就好了】 判别器最后不使用sigmoid函数 这个我们一般只需要删除判别器网络中的最后一个sigmoid层就可以了,非常简单。但是我还想提醒大家一下,有时候你在看别人的原始GAN时,他的判别器网络中并没有sigmoid函数,而是在定义损失函数时使用了BCEWithLogitsLoss函数,这个函数会先对数据做sigmoid,相关代码如下: #定义损失函数 criterion=nn.BCEWithLogitsLoss(reduction='mean') 如果这时你想删除sigmoid函数,只需将BCEWithLogitsLoss函数修改成BCELoss即可。关于BCEWithLogitsLoss和BCELoss的区别我这篇文章有相关讲解,感兴趣的可以看看。?????? 生成器和判别器的loss不取log 我们先来看原始GAN判别器的loss是怎么定义的,如下: d_loss_real=criterion(d_out_real.view(-1),label_real) d_loss_fake=criterion(d_out_fake.view(-1),label_fake) d_loss=d_loss_real+d_loss_fake 原始GAN使用了criterion函数,这就是我们上文定义的BCEWithLogitsLoss或BCELoss,其内部是一个log函数,不清楚的同样可以参考我的这篇文章。 而WGAN判别器的损失直接是两个期望(均值)的差,就对应理论中Ex~Pr[f(x)]?Ex~Pg[f(x)]这部分啦【但是需要加个负号,因为我们都是使用的梯度下降方法,要最小化这个损失,上式是最大化的公式】,我们来看看代码中的实现: d_loss=-(torch.mean(d_out_real.view(-1))-torch.mean(d_out_fake.view(-1))) 看完判别器的损失,我们再来看生成器的损失: g_loss=criterion(d_out_fake.view(-1),label_real)#原始GAN损失 --------------------------------------------------- g_loss=-torch.mean(d_out_fake.view(-1))#WGAN损失 每次更新判别器参数后将判别器的权重截断 首先来说说没什么要进行权重截断,这是因为lipschitz连续条件不好确定,作者为了方便直接简单粗暴的限制了权重参数在[-c,c]这个范围了,这样就一定会存在一个常数K使得函数f满足lipschitz连续条件,具体的实现代码如下: #clipDweightsbetween-0.01,0.01权重剪裁 forpinD.parameters(): p.data.clamp_(-0.01,0.01) 注意这步是在判别器每次反向传播更新梯度结束后进行的。还需要提醒大家一点,在训练WGAN时往往会多训练几次判别器然后再训练一次生成器,论文中是训练5次判别器后训练一次生成器,关于这一点在上文WGAN的流程图中也有所体现。为什么要这样做呢?我思考这样做可能是想把判别器训练的更好后再来训练生成器,因为在前面的理论部分我们的推导都是建立在最优判别器的前提下的。?????? 不适应基于动量的优化算法,推荐使用RMSProp 这部分就属于玄学部分了,作者做实验发现像Adam这类基于动量的优化算法效果不好,然后使用了RMSProp优化算法。我决定这部分大家也不要纠结,直接用就好。同样我们来看看代码是怎么写的,如下: optimizerG=torch.optim.RMSprop(G.parameters(),lr=5e-5) optimizerD=torch.optim.RMSprop(D.parameters(),lr=5e-5) ??这样,WGAN的代码实战我就为大家介绍到这里,不管你前文的WGAN原理听明白了否,但是WGAN代码相信你是一定会修改的,改动的非常之少,大家快去试试吧。?????? 小结??这部分的理论确实是有一定难度的,我也看了非常非常多的视频和博客,写了很多笔记。我觉得大家不一定要弄懂每一个细节,只要对里面的一些关键公式,关键思想有清晰的把握即可;而这部分的实验较原始GAN需要修改的仅有四点,非常简单,大家都可以试试。最后希望大家都能够有所收获,就像WGAN一样稳定的进步,一起加油吧!!!?????? 参考链接令人拍案叫绝的Wasserstein GAN?????? GAN:两者分布不重合JS散度为log2的数学证明?????? GAN — Wasserstein GAN & WGAN-GP?????? GAN — Spectral Normalization?????? 李宏毅【機器學習2021】生成式對抗網路?????? 如若文章对你有所帮助,那就?????? 咻咻咻咻~~duang~~点个赞呗 阅读原文

上一篇:2023-09-12_llama2.mojo比llama2.c快20%,最年轻的语言Mojo惊艳开发者社区 下一篇:2022-11-15_三维“共生式增长”,破除存量时代零和效应

TAG标签:

20
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价