我是靠谱客的博主 幽默板凳,这篇文章主要介绍tensorflow2.0学习笔记(3.2),现在分享给大家,希望可以做个参考。

自编码器变种
1、Denoising Auto-Encoder:加随机噪声
2、Dropout Auto-Encoder:防止过拟合
3、Adversarial Auto-Encoder:利用额外的判别器网络来判定降维的隐藏变量????是否采样先验分布????(????),对抗自编码器是从下一章要介绍的生成对抗网络算法衍生而 来,在学习完对抗生成网络后可以加深对对抗自编码器的理解。
4、VAE:我从概率的角度,我们假设任何数据集都采样自某个分布????(x|z),z 是隐藏的变量,代表了某种内部特征,比如手写数字的图片x,z 可以表示字体的大小,书写风格,加粗、斜体等设定,它符合某个先验分布????(z),在给定具体隐藏变量z 的情况下,我们可以从学到了分布????(x|z)中采样一系列的生成样本,这些样本都具有z 所表示的共性。
推导过程可以参考最大似然估计值link
编码器参数为????????(z|x),中间量为z,即先验概率为p(z),解码器参数为????????(x|z),最后得出式子:
maxℒ(????, ????) = −???????????? (????????(z|x)|????(z)) + ????????~???? [???????????? ????????(x|z)](∫???? (z|x) ???????????? ????????(x|z))
因此可以用编码器网络参数化???? (z|x)函数,解码器网络参数化
????????(x|z)函数,通过计算解码器的输出分布????????(z|x)与先验分布????(z)之间的KL 散度,以及解码器的似然概率???????????? ????????(x|z)构成的损失函数,即可优化ℒ(????, ????)目标。

式子第一项求最小值,一般p(z)为正态分布,q一般也为正态分布;
式子第二项与???? (x) = ∫ ????(x|z)????(z)????z相似,即输出与输入的最小差值。

编码器输出先验分布的均值????和方差????2,由于采样操作的存在,导致梯度传播是不连续的,无法通过梯度下降算法端到端式训练VAE 网络。
reparameterization trick:它通过 z= ???? + ???? ⊙ ????方式采样隐变量z,其中????????,????????和????????????????均是连续可导,从而将梯度传播连接起来。????变量采样自标准正态分布????(0, ????),????和????由编码器网络产生,通过 = ???? + ???? ⊙ ????即可获得采样后的隐变量。

最后

以上就是幽默板凳最近收集整理的关于tensorflow2.0学习笔记(3.2)的全部内容,更多相关tensorflow2内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(53)

评论列表共有 0 条评论

立即
投稿
返回
顶部