当前位置: 首页 > news >正文

生成对抗网络(Generative adversarial network——GAN)

文章目录

  • 1. 前言
    • 1.1 判别器和生成器的作用?
    • 2.2 个人总结
  • 2. 核心代码示例
    • 2.1 训练判别器网络
    • 2.2 训练生成器网络
  • 参考文章

1. 前言

  生成对抗网络的原文:Generative Adversarial Nets,该论文的精读视频:生成对抗网络GAN开山之作论文精读,该论文解析相关的视频:生成对抗网络GAN原理解析。下面是自己对生成对抗网络的理解。

1.1 判别器和生成器的作用?

  1. 生成器(Generator)

(1)作用:生成器的主要任务是生成看起来“真实”的数据(假数据)。它从一个随机噪声向量(通常是高斯分布或均匀分布的随机数)作为输入,经过一系列变换后输出与目标数据分布相似的数据样本。
(2)工作机制:接收随机噪声 z 作为输入;将 z 映射到目标数据空间(例如图像、音频等),生成伪造数据 G(z);目标是让生成的数据尽可能“欺骗”判别器,使其无法区分生成的数据和真实数据。

  1. 判别器(Discriminator)

(1)作用:判别器是一个二分类器,用于判断输入数据是来自真实数据分布还是生成器生成的伪造数据。
(2)工作机制:接收真实数据 x 和生成数据 G(z) 作为输入;输出一个概率值(" 例如0表示“假”,1表示“真” "),表示输入数据是真实数据的可能性;目标是尽可能准确地分辨出真实数据和伪造数据。

  1. 两者之间的关系

(1)对抗过程:生成器和判别器在训练过程中不断博弈。生成器试图生成更逼真的数据以欺骗判别器,而判别器则努力提高自己的辨别能力
(2)动态平衡:理想情况下,经过充分训练后,生成器能够生成几乎无法区分于真实数据的样本,而判别器对所有输入的判断概率接近 0.5(即无法分辨真假)。

  1. 真假数据的输入流程

在这里插入图片描述

2.2 个人总结

(1)对于生成器 G :随机噪声数据 z 通过生成器 G 得到 G(z),我们希望 G(z) 经过判别器 D 输出的概率 D[G(z)] 越大越好(预测概率 D[G(z)] ——> 1)。
(2)对于判别器 D:真实数据 x 通过判别器 D 输出概率 D(x),我们希望概率 D(x) 越大越好(预测概率 D(x) ——> 1);对于虚假数据 G(z),我们希望 G(z) 经过判别器 D 输出的概率 D[G(z)] 越小越好(预测概率 D[G(z)] ——> 0)。

2. 核心代码示例

class Discriminator(nn.Module):# 判别器网络...class Generator(nn.Module):# 生成器网络...# 创建生成器,判别器对象
generator = Generator()
discriminator = Discriminator()# 定义生成器,判别器对象相应的优化器
optimizer_G = torch.optim.Adam(generator.parameters(), lr=opt.lr, betas=(opt.b1, opt.b2))
optimizer_D = torch.optim.Adam(discriminator.parameters(), lr=opt.lr, betas=(opt.b1, opt.b2))# 定义二分类的交叉熵损失
criterion = torch.nn.BCELoss()

2.1 训练判别器网络

  1. 定义真实数据的label为1,虚假数据的label为0
real_label = Variable(torch.ones(imgs.size(0), 1)).cuda()  ## 定义真实的图片label为1
fake_label = Variable(torch.zeros(imgs.size(0), 1)).cuda()  ## 定义假的图片的label为0
  1. 计算真实数据的损失
real_out = discriminator(real_img)  ## 将真实图片放入判别器中, 输出的值越接近1越好
loss_real_D = criterion(real_out, real_label)  ## 得到真实图片的loss
  1. 计算虚假数据的损失
z = Variable(torch.randn(imgs.size(0), opt.latent_dim)).cuda()  ## 随机生成一些噪声, 大小为(128, 100)
fake_img = generator(z).detach()  ## 随机噪声放入生成网络中,生成一张假的图片。
fake_out = discriminator(fake_img)  ## 判别器判断假的图片, 输出的值越接近0越好
loss_fake_D = criterion(fake_out, fake_label)  ## 得到假的图片的loss
  1. 利用损失函数优化判别器网络
loss_D = loss_real_D + loss_fake_D  ## 损失包括判真损失和判假损失
optimizer_D.zero_grad()  ## 在反向传播之前,先将梯度归0
loss_D.backward()  ## 将误差反向传播
optimizer_D.step()  ## 更新参数

2.2 训练生成器网络

  1. 定义虚假数据的label为1
real_label = Variable(torch.ones(imgs.size(0), 1)).cuda()
  1. 计算生成器网络的损失
z = Variable(torch.randn(imgs.size(0), opt.latent_dim)).cuda()  ## 得到随机噪声
fake_img = generator(z)  ## 随机噪声输入到生成器中,得到一副假的图片
output = discriminator(fake_img)  ## 经过判别器得到的结果
loss_G = criterion(output, real_label)  ## 得到的假的图片与真实的图片的label的loss
  1. 利用损失函数优化生成器网络
optimizer_G.zero_grad()  ## 梯度归0
loss_G.backward()  ## 进行反向传播
optimizer_G.step()  ## step()一般用在反向传播后面,用于更新生成网络的参数

参考文章

生成对抗网络(GAN)
生成对抗网络——GAN原理与代码
GAN(生成对抗网络)的系统全面介绍(醍醐灌顶)
Pytorch生成对抗网络(GAN)官方入门教程

相关文章:

  • 深度学习相关技术
  • 在 Anaconda 上安装多版本 Python 解释器并在 PyCharm 中配置
  • 《汽车理论》第四章作业MATLAB部分
  • 第 28 场 蓝桥月赛
  • C++ MySQL数据库访问工具类设计与操作流程详解
  • gbase8s之线程状态详解(超值)
  • 提示词构成要素对大语言模型跨模态内容生成质量的影响
  • chili3d调试笔记5 直接加入js和大模型对话 trae
  • windows上部署本地知识库(RAG)ollama + docker + ragflow方案
  • 组装一台intel n95纯Linux Server服务器
  • RBF(径向基神经网络)基础解析与代码实例:拟合任意函数
  • Java从入门到“放弃”(精通)之旅——类和对象全面解析⑦
  • HBuilder X:前端开发的终极生产力工具
  • 【C语言】srand() rand seed其实是设置一个初始值
  • 百级Function架构集成DeepSeek实践:Go语言超大规模AI工具系统设计
  • kotlin知识体系(五) :Android 协程全解析,从作用域到异常处理的全面指南
  • 深入理解组合实体模式(Composite Entity Pattern)在 C# 中的应用与实现
  • 基于SpringAI Alibaba实现RAG架构的深度解析与实践指南
  • 【数据结构_12】二叉树(4)
  • C 语言的未来:在变革中坚守与前行
  • 习近平在上海考察
  • 马上评丨别让“免费领养”套路坑消费者又坑宠物
  • 成都世运会倒计时100天,中国代表团运动员规模将创新高
  • 海尔·2025青岛马拉松两选手被终身禁赛:违规转让号码、穿戴他人号码
  • 牛市早报|国家发改委:将推出做好稳就业稳经济推动高质量发展若干举措
  • 药明康德一季度净利增长89%,在手订单增超四成至523亿元