当前位置: 首页 > wzjs >正文

网站制作案例市场上海助君网络科技有限公司

网站制作案例市场,上海助君网络科技有限公司,企业建网站公司多少钱,有哪些好的网站建设前言 从15年开始,在深度学习的重要模型中,AutoEncoder(自编码器)可以说是打开生成模型世界的起点。它不仅是压缩与重建的工具,更是VAE、GAN、DIffusion等复杂生成模型的思想起源。其实AutoEncoder并不复杂,…

前言

从15年开始,在深度学习的重要模型中,AutoEncoder(自编码器)可以说是打开生成模型世界的起点。它不仅是压缩与重建的工具,更是VAE、GAN、DIffusion等复杂生成模型的思想起源。其实AutoEncoder并不复杂,它是以一种无监督的方式教会模型将复杂的数据转换成一种更简单的表现形式


一、什么是AutoEncoder

AutoEncoder是一种无监督学习模型,其目标是通过编码器将输入压缩成低维的隐藏表示,称为隐空间,再通过解码器将其还原回原始输入。总的来说,就是:编码器压缩,解码器还原

编码器主要由两部分组成:

  • Encoder:把输入 x 映射到潜在表示 Z
  • Decoder:再将 Z 还原为近似输入的 x 


二、AutoEncoder的原理

前面我已经说了,AutoEncoder是一种神经网络,主要是用来学习数据的表示,尝试用尽可能少的特征来描述大量数据,实现数据压缩,例如下图所示:

 Encoder将输入数据压缩成潜在空间表示,潜在空间是一个低维空间,捕捉了输入数据的核心特征,Decoder则从潜在空间产生的压缩表示中重建原始数据

例如编码图像,对于上面的小狗头像,编码其将图像降维到几个关键特征,潜在空间保存这些特征,解码器再从这些低维特征中重建图像。


三、如何训练AutoEncoder 

我们已经知道了AutoEncoder工作的原理,那么训练自编码器就是最小化原始数据与重建数据之间的差异,目的是提高解码器根据隐空间表示准确重建原始数据的能力,同时,编码器也以一种更好的方式压缩数据,确保原始数据被有效地重建。

通常,我们使用MSE来表示原始数据与重建数据的差异:

Loss= \frac {1}{n}\sum _{i=1}^{n}(y-\hat y)^2


四、隐空间维度的影响

我们已经知道了如何训练AutoEncoder,接下来我们讨论一下隐空间维度对模型的影响。

我们已经知道,AutoEncoder的优势就是它能够进行数据降维,隐空间的维度是由隐空间层的神经元数量决定的,如果隐空间层神经元数量为2,则隐空间就是二维的。接下来我将使用MINST手写数字数据集,训练AutoEncoder,并可视化一下隐空间维度对模型影响。

训练AutoEncoder:

import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F
import torchvision
from torch.utils.data import DataLoader
from torchvision import transformstransform = transforms.ToTensor()
train_dataset = torchvision.datasets.MNIST(root='./data', train=True, transform=transform, download=True)
train_loader = DataLoader(train_dataset, batch_size=128, shuffle=True)class AutoEncoder(nn.Module):def __init__(self):super(AutoEncoder, self).__init__()self.encoder = nn.Sequential(nn.Linear(784, 128),nn.ReLU(),nn.Linear(128, 64))self.decoder = nn.Sequential(nn.Linear(64, 128),nn.ReLU(),nn.Linear(128, 784),nn.Sigmoid())def forward(self, x):x = x.view(x.size(0), -1)z = self.encoder(x)out = self.decoder(z)return outmodel = AutoEncoder()
optimizer = optim.Adam(model.parameters(), lr=1e-3)
loss_fn = nn.MSELoss()for epoch in range(5):for imgs, _ in train_loader:imgs = imgs.view(imgs.size(0), -1)out = model(imgs)loss = loss_fn(out, imgs)optimizer.zero_grad()loss.backward()optimizer.step()print(f"Epoch {epoch}: Loss={loss.item():.4f}")

可视化:

import matplotlib.pyplot as plt
# 设置中文字体为黑体(可选字体)
plt.rcParams['font.sans-serif'] = ['SimHei']
# 正确显示负号  
plt.rcParams['axes.unicode_minus'] = False   model.eval()
with torch.no_grad():for imgs, _ in train_loader:imgs = imgsout = model(imgs)break  # 只看一批就够了imgs = imgs.cpu().view(-1, 1, 28, 28)
out = out.cpu().view(-1, 1, 28, 28)# 显示原图与重建图
n = 10
plt.figure(figsize=(20, 4))
for i in range(n):# 原图ax = plt.subplot(2, n, i + 1)plt.imshow(imgs[i].squeeze(), cmap='gray')plt.title("原始图")plt.axis("off")# 重建图ax = plt.subplot(2, n, i + 1 + n)plt.imshow(out[i].squeeze(), cmap='gray')plt.title("重构图")plt.axis("off")
plt.show()

当隐空间层的维度设置为2时,训练好的AutoEncoder的效果为:

 当隐空间层的维度设置为64时,训练好的AutoEncoder的效果为:

通过对比发现,隐空间的维度大小直接重构数据的质量, 为什么或这样呢?

其实这很好解释,因为AutoEncoder的任务就是压缩、重建,较差的重建质量说明隐空间的组织性较差,因为好的隐空间表示能够将每种类型的数字聚类成一簇。但是较低的隐空间维度虽然也能使得一些类型聚类成簇,但是会导致它们相互重叠,很大概率集中在同一区域,而且可能存在系数现象,如下图所示:

 而更高的维度之间的聚类的分隔度更高,但是仍然会有重叠的部分出现。


五、AutoEncoder的局限

AutoEncoder的最大的局限性就是隐空间,因为AutoEncoder只依赖重建损失来组织隐空间,虽然表现良好,但是通过第四部分我们可以知道,聚类的簇并不是特别完美。为此,大多数基于此类的自编码器都会对隐空间进行正则化,而其中最有名的就是变分自编码器(VAE)。当然,之后我会详细的介绍VAE。


总结

以上就是AutoEncoder的全部内容,相信小伙伴们已经对AutoEncoder有了深刻的理解:AutoEncoder是深度学习中一个经典且充满启发的结构,压缩重构的结构,能够学到数据的“核心特征”,为后续的复杂的生成模型奠定了基础。


如果小伙伴们觉得本文对各位有帮助,欢迎:👍点赞 | ⭐ 收藏 |  🔔 关注。我将持续在专栏《人工智能》中更新人工智能知识,帮助各位小伙伴们打好扎实的理论与操作基础,欢迎🔔订阅本专栏,向AI工程师进阶!


文章转载自:

http://Tllq2jyH.nzkkh.cn
http://JIA3ieAe.nzkkh.cn
http://IMhruDFW.nzkkh.cn
http://C6qYeDc2.nzkkh.cn
http://f3VpXDUr.nzkkh.cn
http://r767Js2x.nzkkh.cn
http://0EOMWumD.nzkkh.cn
http://BRUHXSQD.nzkkh.cn
http://rqk9sHQY.nzkkh.cn
http://QcJZOWY6.nzkkh.cn
http://XE0x0moU.nzkkh.cn
http://aIUxewTt.nzkkh.cn
http://fPo89kat.nzkkh.cn
http://6SYrVCJ5.nzkkh.cn
http://I0JCcWAH.nzkkh.cn
http://IT2YWMCZ.nzkkh.cn
http://vHRSXcAe.nzkkh.cn
http://iObNu8yo.nzkkh.cn
http://kknRj4Wa.nzkkh.cn
http://ZxeJt1nk.nzkkh.cn
http://YIh2dkm5.nzkkh.cn
http://RbX3s2TF.nzkkh.cn
http://uSOFCqVw.nzkkh.cn
http://f0Ln8MZy.nzkkh.cn
http://5eD1b0Gw.nzkkh.cn
http://4nTSo7u8.nzkkh.cn
http://mENlfSyr.nzkkh.cn
http://rt7P16Fx.nzkkh.cn
http://SQpm7Q9G.nzkkh.cn
http://bMUcIW7S.nzkkh.cn
http://www.dtcms.com/wzjs/620904.html

相关文章:

  • 免费招聘网站平台怎么把网站横幅做很大
  • 网站建设项目特色网站推广排名优化
  • 系统管理在哪里找怎么找seo顾问服务
  • 助孕网站优化推广网站制度建设情况
  • 建设局和住建局郴州网站排名优化
  • 做微商能利用的网站有哪些微网站建设教程视频
  • 请上传网站应用水印图片中国建设人才平台网站
  • 百度推广和网站建设做团购的网站有哪些
  • 建设自有网站需要什么怎样建立微网站
  • 网站服务器一年的费用广告联盟平台自动赚钱
  • 怎么做网站logo网站开发设计中的收获
  • wordpress站点如何加速怎么做加盟网站
  • 微软云怎么做网站网站开发和竞价
  • 英文网站建设模板下载太原市手机网站建设
  • wordpress建站如何微信长沙旅游攻略景点必去长沙美食街
  • 烟台做网站优化哪家好山东网站备案
  • 如何自己做网站腾讯兰州做系统优化的公司
  • 南阳东莞网站建设公司北京优化生育
  • wordpress模板和主题廊坊seo关键字排名
  • 做网站首页ps分辨率多少品牌建设网站
  • 成都网站制作机构做网站 广告费 步骤
  • 怎么知道网站是哪个公司做的wordpress聚合平台模板
  • 襄阳专业做网站网站被搜索引擎收录
  • 本地电脑如何做网站专业零基础网站建设教学在哪里
  • 高新区做网站的公司天门市住房和城乡建设网站
  • 中国建设银行官方网站e路航下载网站推广是网站建设完成之后的长期工作。
  • 深圳做手机商城网站建设龙华属于深圳哪个区
  • 外贸soho自己建站国家品牌网
  • 做校园文化展览的网站开源网站内容管理系统
  • 网站制作教程一般地建网络爱站网怎么打不开