当前位置: 首页 > wzjs >正文

网站建设项目公司什么是友情链接?

网站建设项目公司,什么是友情链接?,做移门配件的网站,那个网站有兼职做室内设计文章目录 宠物品种数据集制作宠物品种标签图像预处理Presizing 损失函数loss观察模型的性能提升模型的性能learning rate finder使用CLR算法训练选择学习率的策略重新训练 迁移学习微调fine_tunefit_one_cycle有判别力的学习率 选择epoch的数量更深的网络架构 宠物品种数据集 …

文章目录

    • 宠物品种数据集
      • 制作宠物品种标签
      • 图像预处理Presizing
    • 损失函数loss
    • 观察模型的性能
    • 提升模型的性能
      • learning rate finder
        • 使用CLR算法训练
        • 选择学习率的策略
        • 重新训练
      • 迁移学习
        • 微调fine_tune
        • fit_one_cycle
        • 有判别力的学习率
      • 选择epoch的数量
      • 更深的网络架构

宠物品种数据集

这里我们使用fastai深度学习库。

from fastai.vision.all import *

从fastai的官网下载Pets数据集,解压至本地文件夹内。

path = untar_data(URLs.PETS)
Path.BASE_PATH = path
path.ls()

在这里插入图片描述

制作宠物品种标签

annotations目录内的文件主要告诉了我们宠物在图像的具体位置,但我们今天要完成的任务是宠物分类。所以我们需要重新制作标签。

fname = (path/"images").ls()[0]
fname

在这里插入图片描述这是一张图片的文件名,格式为“宠物名_编号.jpg”
我们的目的是提取出下划线前面的宠物名,这时候就需要用到正则表达式来提取字符串了。(正则表达式的讲解)

  • (.+)可截取若干个任意字符,所以可以提取宠物品种名称
  • _匹配下划线
  • \d+匹配数字,在这里就是匹配了编号
  • .jpg匹配后缀名
  • $结束字符
re.findall(r'(.+)_\d+.jpg$', fname.name)

在这里插入图片描述

在fastai深度学习库中,我们有已经提前实现好的RegexLabeller类,同样实现了“根据正则表达式提取字符串”的功能,而且我们通常是在DataBlock代码块中使用。

pets = DataBlock(# Inputs类型:Image, Targets类型:Categoryblocks = (ImageBlock, CategoryBlock),# 从images目录下的子文件夹内获得数据get_items=get_image_files, splitter=RandomSplitter(seed=42),# 定义对targets所作的操作,然后得到yget_y=using_attr(RegexLabeller(r'(.+)_\d+.jpg$'), 'name'),# 裁剪图像item_tfms=Resize(460),# 数据增强batch_tfms=aug_transforms(size=224, min_scale=0.75))
dls = pets.dataloaders(path/"images")

图像预处理Presizing

接下来我们来研究一下这两行代码,

# 裁剪图像
item_tfms=Resize(460),
# 数据增强
batch_tfms=aug_transforms(size=224, min_scale=0.75))

为什么先裁剪图像然后数据增强呢?
因为在fastai深度学习库中,许多数据增强方法会让图像的质量下降,我们再裁剪的就是已经损坏的图像,那样对模型训练没有益处。
因此我们先将图像统一裁剪成460*460的大小,然后再进行数据增强。

在这里插入图片描述

如上图所示,Presize通常有两步:
1、把图像裁剪成相对较大的尺寸(比训练时的图像尺寸大)
2、把所有常见的数据增强增强操作变成一个组合操作,然后在GPU上执行组合操作

损失函数loss

我们使用的是交叉熵损失函数(cross-entropy loss),它适用于多目标分类。(cross-entropy loss讲解)

观察模型的性能

我们通常使用混淆矩阵confusion matrix来观察模型的表现。
如果图像的类别有n个,那么混淆矩阵的大小就是nxn,但是宠物的类别有37种,那混淆矩阵就太大了。
在这里插入图片描述

因此我们使用most_confused方法来查看在有着最多不正确的预测值的单元格(至少有5个)。

interp.most_confused(min_val=5)

在这里插入图片描述根据研究,这两种情况下,即使是宠物专家也容易搞错,所以我们的模型效果还不错。
接下来就是考虑如何改进我们的模型了。

提升模型的性能

learning rate finder

learning rate finder的代码思想源自CLR(cyclical learning rates)算法
learning rate finder方法的主要步骤:
1、将训练集分成batch,每次循环训练一个batch
2、初始学习率(例如1e-6)较小,然后每次将学习率扩大(例如乘以2)后训练下一个batch
3、记录training loss,直到training loss不再变小反而变大停止

使用CLR算法训练
learn = vision_learner(dls, resnet34, metrics=error_rate)lr_min, lr_steep = learn.lr_find(suggest_funcs=(minimum, steep))

什么是minimum? 使training loss达到最小的点
什么是steep? 使training loss曲线下降坡度最大的点。

在这里插入图片描述

选择学习率的策略
print(f"Minimum/10: {lr_min:.2e}, steepest point: {lr_steep:.2e}")

在这里插入图片描述

根据loss-lr图,选择学习率的策略有以下2种:
1、使training loss达到最小的学习率,在这个数值上/10
2、最后一个使training loss明显下降的点附近
根据策略2,已经知道最陡的点是2.09e-3,我们在这里取最后一个使training loss明显下降的点大约为3e-3

重新训练

现在我们使用3e-3作为学习率,重新训练模型。

learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fine_tune(2, base_lr=3e-3)

在这里插入图片描述

观察结果,相较于使用1e-1,使用3e-3作为学习率训练模型,使error_rate从降低到0.073!

迁移学习

微调fine_tune

预训练模型是在Imagenet数据集上训练好的模型。
当我们做迁移学习的时候,我们去除网络架构的最后一层,然后加入新的全连接层,输出数量是数据集的标签类别个数。

fine_tune方法帮助我们实现了迁移学习,非常方便实用。
当我们调用fine_tune方法时,有以下2种策略:
1)训练新添加的层指定的epoch数量,其余的层全部都冻住
2)所有层都解冻,然后再重新训练指定的epoch数量

预训练网络模型的前面几层提取大多数图片的共有特征,如边框等,因此我们不想要重新训练前面几层的权重,所以只需要冻住freeze, 而最后几个新添加的层希望被用来学习新数据集的独有特征,因此我们想要训练新添加的层的权重,需要解冻unfreeze.

要想查看某个函数的源代码,只需在后面加上??即可。
这是fine_tune方法的源代码。

Signature:
learn.fine_tune(epochs,base_lr=0.002,freeze_epochs=1,lr_mult=100,pct_start=0.3,div=5.0,*,lr_max=None,div_final=100000.0,wd=None,moms=None,cbs=None,reset_opt=False,start_epoch=0,
)
Source:   
@patch
@delegates(Learner.fit_one_cycle)
def fine_tune(self:Learner, epochs, base_lr=2e-3, freeze_epochs=1, lr_mult=100,pct_start=0.3, div=5.0, **kwargs):"Fine tune with `Learner.freeze` for `freeze_epochs`, then with `Learner.unfreeze` for `epochs`, using discriminative LR."self.freeze()self.fit_one_cycle(freeze_epochs, slice(base_lr), pct_start=0.99, **kwargs)base_lr /= 2self.unfreeze()self.fit_one_cycle(epochs, slice(base_lr/lr_mult, base_lr), pct_start=pct_start, div=div, **kwargs)
File:      /usr/local/lib/python3.10/dist-packages/fastai/callback/schedule.py
Type:      method

从上面可以看到,在源代码中使用了fit_one_cycle函数。
我们接下来自己手动模拟一个fine_tune函数。不过,在这之前,先来了解一下fit_one_cycle函数

fit_one_cycle

fit_one_cycle的作用是,先以较低的学习率开始训练,慢慢增加到指定最大学习率后,再逐渐减小学习率。

我们先训练模型3个epoch,创建好vision_learner以后,除新添加的层外,其余层默认是被冻住的。此时我们训练的就只有刚刚添加的层。

learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fit_one_cycle(3, lr_max=3e-3)

在这里插入图片描述
我们接下来查看学习率的变化曲线,以及损失的变化曲线

learn.recorder.plot_sched()

在这里插入图片描述

learn.recorder.plot_loss()

在这里插入图片描述

我们可以看出:
1)学习率一开始很小,loss比较大
2)学习率增大并逐渐到达最大值,loss变小
3)学习率又逐渐变小,loss也在变小

因此fit_one_cycle函数的代码实现了learning rate annealing算法,它也被称为学习率退火算法。

好了,话说回来,我们继续手动搭建自己的fine_tune函数,来训练我们的模型。
一开始我们训练了3个epoch,现在我们将模型所有的层都解冻。

learn.unfreeze()

我们需要重新再使用learning rate finder, 因为模型的权重已经发生了改变,所有我们要找到新的最佳的learning rate

learn.lr_find()

在这里插入图片描述
基于选择学习率的策略2,从上图中我们可以看出最后一个明显下降的点在1e-4附近,但我们选择略小一点的,所以是1e-5,接下来我们继续训练6个epoch

learn.fit_one_cycle(6, lr_max=1e-5)

在这里插入图片描述
从上图中可以看出,我们模型的error_rate已经从刚刚的0.074降低到0.059了!

有判别力的学习率

因为预训练的层已经能够识别边缘等,但对于具体任务的特征还需要训练,所以新添加的层就相较于预训练层使用大一点的学习率。
新论文中提出较早的层使用较小的学习率训练,新添加的层用较大的学习率训练。
Python中的slice(,)对象指明了学习率。
第一个参数,是用于训练第一层的学习率;第二个参数,是用于训练最后一层的学习率;中间的层的学习率是在这个范围内等距增加的。
先使用学习率3e-3训练3个epoch,然后将所有的网络参数解冻。然后再继续训练12个epoch,但不同的层学习率也不同,第一层为1e-6, 最后一层为1e-4, 中间的层等距增加。

learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fit_one_cycle(3, 3e-3)
learn.unfreeze()
learn.fit_one_cycle(12, lr_max=slice(1e-6,1e-4))

在这里插入图片描述

从上面的表格中我们可以发现,error_rate降低到了0.0541

我们来对比一下源代码,和我们基于自己模型创建的fine_tune方法

## 这是源代码
def fine_tune(self:Learner, epochs, base_lr=2e-3, freeze_epochs=1, lr_mult=100,pct_start=0.3, div=5.0, **kwargs):self.freeze()self.fit_one_cycle(freeze_epochs, slice(base_lr), pct_start=0.99, **kwargs)base_lr /= 2self.unfreeze()self.fit_one_cycle(epochs, slice(base_lr/lr_mult, base_lr), pct_start=pct_start, div=div, **kwargs)## 这是我们自己的版本
learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fit_one_cycle(3, 3e-3)
learn.unfreeze()
learn.fit_one_cycle(12, lr_max=slice(1e-6,1e-4))

有人可能会想问“为什么源代码中就有self.freeze()呢?”
因为在初始化vision_learner的时候,其源函数中有这样一行代码,if pretrained: learn.freeze(),所有创建好learner对象后,其实已经处于冻结状态了。

选择epoch的数量

  • 选择你愿意等待的训练时间的epoch数量,开始训练
  • 观察training loss和validation loss图,也要注意metrics,如果在最后的几个epoch中,loss和metrics仍然能变得更好,那说明我们训练的时间还不够长
  • 在训练的最后几个epoch中,validation loss变得更差,而且metrics也变得更差,说明我们训练的时间太长了。
  • 此外,如果过拟合了,重新训练你的模型,并且基于之前的结果,重新设定epoch数。

在one cycle策略出现之前,我们通常使用early stopping早停策略。也就是,在训练的每一个epoch结束后,
我们会把权重保存下来,最后从中选择一个最佳的模型。 但有时候early stopping策略并不能使我们获得最好的结果,在学习率达到很小的值(同时让模型表现最佳)之前,中间的那些epoch已经发生了。
因此,如果你发现已经过拟合了,你要做的是重新训练你的模型,并且基于之前的结果,重新设定epoch数。

如果你有更多的时间训练更多的epoch,那么我们也可以选择把这么多的时间用于训练更多的参数,即更深的网络架构。

更深的网络架构

  • 好处:一般来说,更深的网络架构意味着更多的参数,这也使得我们的模型能学习更多与数据相关的特征,使得准确率更高。
  • 坏处:大量参数意味着需要占用很大的gpu内存,也需要很长的训练时间

因此,有一种方法叫作“半精度训练”,即在训练的时候,使用“半精度浮点数”(fp16),使得训练速度大大加快,也减少了内存使用。在fastai深度学习库中,我们直接让learner对象调用to_fp16()方法。

from fastai.callback.fp16 import *
learn = vision_learner(dls, resnet50, metrics=error_rate).to_fp16()
learn.fine_tune(6, freeze_epochs=3)

在这里插入图片描述

这里我自己采用resnet152,并且使用单精度训练的方式,冻住预训练权重并训练2个epoch;然后解冻模型并训练5个epoch

from fastai.callback.fp16 import *
learn = vision_learner(dls, resnet152, metrics=error_rate).to_fp16()
learn.fine_tune(5, freeze_epochs=2)

从下图可以看出,我的模型的error_rate降低到了0.045!
在这里插入图片描述

如果大家有更好的方法,欢迎大家评论,我很想学习。

http://www.dtcms.com/wzjs/307639.html

相关文章:

  • 关键字查询我的网站怎么做百度提交网站收录查询
  • 数据型网站 建设方案外国人b站
  • 烟台赶集网网站建设南宁seo结算
  • 比较好的做外贸网站百度的电话人工客服电话
  • 政府网站设计和内容上的不足互联网外包公司有哪些
  • 域名怎么建设网站上海还能推seo吗
  • 网站制作培训机构2345网址导航应用
  • 网站平台怎么做做外贸用什么软件找客户
  • 网站没备案怎么做淘宝客舆情分析系统
  • 外贸建站选择哪个服务器好seo排名快速
  • 做软装什么网站可以长沙seo优化推广公司
  • 公众号第三方网站开发刷关键词指数
  • 一级a做爰片凤凰网站互联网运营推广是做什么的
  • 腾讯云手动搭建wordpress个人站点怎么在百度做免费推广
  • wordpress调用播放器seo优化是什么
  • 可以绑定独立域名网站有哪些网页设计公司
  • 高品质外贸网站建设站长工具中文
  • 没注册可以做网站吗百度搜索引擎的网址
  • 普法网站建设方案石家庄手机端seo
  • 解决方案网站河南品牌网络推广外包
  • 做网站上传图片多大合适宁波网站推广方案
  • 网站建设公司dyfwzx怎么做百度推广运营
  • 一个做网站编程的条件宁波seo外包
  • 肇庆住房和城乡建设局网站百度广告推广收费标准
  • 腾讯云做网站选哪个seo优化技巧
  • 学做网站能赚多少钱百度地图关键词排名优化
  • 网站建设公司的成本有哪些方面深圳电子网络推广查询
  • 中港海通网站是谁做的营销型网站建设题库
  • 网站返利二维码怎么做搜索引擎优化seo应用
  • dedecms网站地图调用培训机构排名前十