当前位置: 首页 > wzjs >正文

穹拓做网站天猫店铺申请条件及费用

穹拓做网站,天猫店铺申请条件及费用,上海门户网站建设方案,网页制作基础教程步骤这段时间看了VAE的有关知识,但网上关于VAE的讲解较为理论复杂,我这里就记录一下自己的想法了。 定义 VAE从概率的角度描述隐空间与输入样本,它将样本的隐变量建模为概率分布, 而非像AE一样把隐变量看做是离散的值。 AE VS VAE 损失函数 我们…

这段时间看了VAE的有关知识,但网上关于VAE的讲解较为理论复杂,我这里就记录一下自己的想法了。

定义

VAE从概率的角度描述隐空间与输入样本,它将样本的隐变量建模为概率分布, 而非像AE一样把隐变量看做是离散的值。

AE VS VAE

AE VS VAE}

损失函数

loss

我们假设隐变量的概率分布为标准正态分布 N ( 0 , 1 ) N(0, 1) N(0,1)(这种分布不是必须的,也可以是其它分布)。而描述正态分布需要有两个参数 μ x , σ x \mu_x, \sigma_x μx,σx,在encoder端使用神经网络来拟合这两个参数。在decoder端,使用神经网络来还原出原始图像。因此,VAE的损失函数分为两部分:

  • 正则化项,也就是KL Loss

  • 重构损失

L = L R e c o n + L K L = ∥ x − x ^ ∥ 2 + K L [ N ( μ x , σ x ) , N ( 0 , 1 ) ] = ∥ x − d ( z ) ∥ 2 + K L [ N ( μ x , σ x ) , N ( 0 , 1 ) ] \begin{aligned} L &= L_{Recon} + L_{KL} \\ &= \|x-\hat{x}\|^{2}+\mathrm{KL}[N(\mu_{x}, \sigma_{x}), N(0, 1)] \\ &= \|x-d(z)\|^{2}+KL[N(\mu_{x}, \sigma_{x}), N(0, 1)] \end{aligned} L=LRecon+LKL=xx^2+KL[N(μx,σx),N(0,1)]=xd(z)2+KL[N(μx,σx),N(0,1)]

关于 K L [ N ( μ x , σ x ) , N ( 0 , 1 ) ] KL\left[N\left(\mu_{x}, \sigma_{x}\right), N(0,1)\right] KL[N(μx,σx),N(0,1)]的推导如下:

K L ( N ( μ , σ 2 ) ∥ N ( 0 , 1 ) ) = ∫ 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 ( log ⁡ e − ( x − μ ) 2 2 σ 2 2 π σ 2 e − x 2 2 2 π ) d x = ∫ 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 log ⁡ { 1 σ 2 exp ⁡ { 1 2 [ x 2 − ( x − μ ) 2 σ 2 ] } } d x = 1 2 ∫ 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 [ − log ⁡ σ 2 + x 2 − ( x − μ ) 2 σ 2 ] d x = 1 2 ( − log ⁡ σ 2 + μ 2 + σ 2 − 1 ) \begin{aligned} & KL\left(N\left(\mu, \sigma^{2}\right) \| N(0,1)\right) \\ &= \int \frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{\frac{-(x-\mu)^{2}}{2 \sigma^{2}} }\left(\log \frac{\frac{e^{ \frac{-(x-\mu)^{2}}{2 \sigma^{2}} }}{\sqrt{2 \pi \sigma^{2}}} }{\frac{e^{\frac{-x^{2}}{2}}}{\sqrt{2 \pi}} }\right) d x \\ &= \int \frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{\frac{-(x-\mu)^{2}}{2 \sigma^{2}} } \log \left\{\frac{1}{\sqrt{\sigma^{2}}} \exp \left\{\frac{1}{2}\left[x^{2}- \frac{(x-\mu)^{2}}{\sigma^{2}} \right]\right\}\right\} d x \\ &= \frac{1}{2} \int \frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{\frac{-(x-\mu)^{2}}{2 \sigma^{2}} }\left[-\log \sigma^{2}+x^{2}- \frac{(x-\mu)^{2}}{\sigma^{2}} \right] d x \\ &= \frac{1}{2}\left(-\log \sigma^{2}+\mu^{2}+\sigma^{2}-1\right) \end{aligned} KL(N(μ,σ2)N(0,1))=2πσ2 1e2σ2(xμ)2 log2π e2x22πσ2 e2σ2(xμ)2 dx=2πσ2 1e2σ2(xμ)2log{σ2 1exp{21[x2σ2(xμ)2]}}dx=212πσ2 1e2σ2(xμ)2[logσ2+x2σ2(xμ)2]dx=21(logσ2+μ2+σ21)

重参数技巧

我们从概率分布中采样出 z z z ,但是该过程是不可导的。VAE通过重参数化使得梯度不因采样而断裂。

reparams

总结

其实VAE可以看成一个做降维的model,我们希望把一个高维的特征投影到一个低维的流型上。而在VAE中,这个低维流型就是一个多元标准正态分布。为了使投影准确,于是通过希望每一个样本 X i X_i Xi的计算出来的期望与方差都接近与我们希望投影的分布,所以这里就有了KL Loss。至于重构损失,是可以使采样的时候更加准确,能够采样到我们在encode的时候投影到的点。

最佳实践

  • Pytorch实现: VAE 这篇博客实现了VAE,整体上代码简单易懂。在generation阶段,我们只需从学习到的概率分布中采样,然后送入decoder中解码,即可获得生成的图片。

  • 小小将的VAE实现,可以直接运行:https://github.com/xiaohu2015/nngen/blob/main/models/vae.ipynb


参考

  • 变分自编码器VAE:原来是这么一回事

  • Understanding Variational Autoencoders (VAEs)

  • Pytorch实现: VAE

  • 变分自编码器入门

  • VAE.ipynb - Colaboratory

  • 李宏毅2021春机器学习课程

  • VAE.pdf(ntu.edu.tw)

  • VAE的推导

http://www.dtcms.com/wzjs/457094.html

相关文章:

  • 微信公众号怎样做淘客网站seo推广效果
  • 桂林两江四湖游船路线seo自然搜索优化排名
  • dw做框架网站郑州seo培训班
  • 专门做礼物的网站宁波江北区网站推广联系方式
  • 网站制作计划360网站安全检测
  • 缙云做网站申请百度账号注册
  • 如何建设网站平台百家号关键词seo优化
  • 梅林多丽工业区做网站铁力seo
  • 威海网站建设价格网站seo公司
  • 使用redis做视频网站缓存郑州外贸网站推广
  • 广州商城网站建设报价搜索引擎优化的常用方法
  • 工程建设标准化期刊网站百度模拟搜索点击软件
  • 义乌网站制作是什么怎么查找关键词排名
  • 乌鲁木齐做网站推广企业网站页面设计
  • 穆棱市城乡建设局网站购物网站哪个最好
  • 个人做网站开发指标全国疫情实时动态
  • 建设行业信息和技术应用服务网站百度2018旧版下载
  • 单页面优化的重点seo发帖工具
  • 深圳网站建设qwyx100湖南长沙seo教育
  • 汕头网站建设浩森宇特关键词优化推广策略
  • 蒙牛奶特网站怎么做活动推广方式都有哪些
  • 东莞网站建设0769dt在线网络培训平台
  • 如何 html5 网站模板总推荐榜总点击榜总排行榜
  • 网站建设知识产权问题品牌推广的目的和意义
  • mmd怎么做下载网站友情链接建立遵循的原则包括
  • 永嘉规划建设局网站整合营销什么意思
  • 网站建设建议书大型网站建设平台
  • 巨野网站建设北京seo助理
  • wordpress电商平台百度搜索排行seo
  • WordPress报错关闭外贸seo网站建设