当前位置: 首页 > wzjs >正文

备案网站到期了怎么办seo 0xu

备案网站到期了怎么办,seo 0xu,35公司做的网站漏洞,web 网站做甘特图文章目录为什么需要正则化过拟合与欠拟合对比表正则化---为了防止过拟合逻辑回归的L1与L2正则化L2正则化 w2w^2w2L1正则化 www梯度下降为什么需要正则化 这里引入一些概念 偏差:预测与实际值差的大,训练集,测试集都不准。方差:受…

在这里插入图片描述

文章目录

为什么需要正则化

这里引入一些概念

  1. 偏差:预测与实际值差的大,训练集,测试集都不准。
  2. 方差:受数据的扰动大,训练集数据差别大(方差大),导致相同模型,不同训练集,预测的结果不同。(训练集准,测试集不准)
  3. 过拟合:训练参数过多,而训练样本过少导致学习了无用特征,使预测集准确率低。
  4. 欠拟合:训练集,测试集准确率都低。(偏差大)

过拟合与欠拟合对比表

特性过拟合 (Overfitting)欠拟合 (Underfitting)
定义模型在训练集上表现很好,但在测试集上表现差模型在训练集和测试集上表现都差
训练误差
测试误差
模型复杂度通常过于复杂(模型参数过多)通常过于简单(模型参数过少)
学习能力学习能力过强,甚至记住了噪声学习能力不足,无法捕捉数据中的基本模式
数据量通常发生在数据量较少时可能发生在数据量不足或模型太简单时
偏差-方差分解高方差高偏差
解决方案1. 增加数据量
2. 正则化(L1/L2)
3. 减少模型复杂度
4. Dropout
5. 早停(Early Stopping)
1. 增加模型复杂度
2. 增加特征数量
3. 减少正则化
4. 延长训练时间
5. 使用更复杂的模型
典型表现图训练误差曲线远低于测试误差曲线训练误差和测试误差都较高且接近
决策边界非常复杂,可能包含许多不必要的细节过于简单,无法捕捉数据中的结构

正则化—为了防止过拟合

逻辑回归的L1与L2正则化

逻辑回归的参数W数量根据特征的数量而定(一个神经元*特征数),那么正则化如下

L2正则化 w2w^2w2

逻辑回归的损失函数中增加L2正则化

J(w,b)=1m∑i=1mL(y^(i),y(i))+λ2m∥w∥2J(w, b)=\frac{1}{m} \sum_{i=1}^{m} L\left(\hat{y}^{(i)}, y^{(i)}\right)+\frac{\lambda}{2 m}\|w\|^{2}J(w,b)=m1i=1mL(y^(i),y(i))+2mλw2

其中的L2范数可以理解:λ2m∥w∥22=λ2m∑j=1nxjwj2=λ2mwTw\frac{\lambda}{2 m}\|w\|_{2}^{2}=\frac{\lambda}{2 m} \sum_{j=1}^{n} \frac{x_{j}}{w_{j}^{2}} =\frac{\lambda}{2 m} w^{T} w2mλw22=2mλj=1nwj2xj=2mλwTw

解释:所有w参数的平方和的结果

  • 1m∑i=1mL(y^(i),y(i))\frac{1}{m} \sum_{i=1}^{m} L\left(\hat{y}^{(i)}, y^{(i)}\right)m1i=1mL(y^(i),y(i))是当前批次,所有样本损失率的平均值
  • L2范数=λ2m∥w∥2\frac{\lambda}{2 m}\|w\|^{2}2mλw2=λ2mwTw\frac{\lambda}{2 m} w^{T} w2mλwTwwww是权重矩阵(由神经元与特征数目决定)
  • λ\lambdaλ是超参数

L1正则化 www

逻辑回归的损失函数中增加L1正则化

J(w,b)=1m∑i=1mL(y^(i),y(i))+λ2m∥w∥1J(w, b)=\frac{1}{m} \sum_{i=1}^{m} L\left(\hat{y}^{(i)}, y^{(i)}\right)+\frac{\lambda}{2 m}\|w\|_{1}J(w,b)=m1i=1mL(y^(i),y(i))+2mλw1

其中L2范数可以理解为:λ2m∥w∥1=λ2m∑j=1nxj∣wj∣\frac{\lambda}{2 m}\|w\|_{1}=\frac{\lambda}{2 m} \sum_{j=1}^{n} \frac{x_{j}}{\left|w_{j}\right|}2mλw1=2mλj=1nwjxj

梯度下降

•接下来我们通过方向传播来理解这个其中的L2,对于损失函数我们要反向传播求参数梯度:

(1) dW=∂L∂w+λmWdW=\frac{\partial L}{\partial w}+\frac{\lambda}{m} WdW=wL+mλW

前面的默认损失函数的梯度计算结果默认为backprop,那么更新的参数就为

(2) W:=W−αdWW:=W-\alpha dWW:=WαdW 那么我们将第一个公式带入第二个得到

W:=W−α(∂L∂w+λmW)W:=W-\alpha(\frac{\partial L}{\partial w}+\frac{\lambda}{m} W) W:=Wα(wL+mλW)

=W−αλmW−α∗∂L∂w=W-\frac{\alpha \lambda}{m} W-\alpha * \frac{\partial L}{\partial w} =WmαλWαwL

所以每次更新的时候都会让W(1−αλm)W(1-\frac{\alpha \lambda}{m})W(1mαλ),使权重www随迭代次数逐渐减小,所以我们通常称L2范数为权重衰减。

  • 正则化如何防止过拟合的
    在这里插入图片描述
    红线:合适的拟合。
    绿线:过拟合
    蓝线:欠拟合

如上图所示,我们发现,当模型发生过拟合时,模型相对于其他模型,曲线函数更加的弯曲,这说明在局部弯曲的部分,切线斜率特别大,(即模型导数的绝对值特别大,这是由于www从一个较大的值变化到另一个大的值,是www的系数过大导致的),对于整个模型来说,我们可以理解为所有的参数的绝对值之和特别大。因此,如果我们有办法使得这些参数的值,比较稠密均匀地集中在零附近,就能有效地抑制过拟合。于是,便引入了范数。从而使www的系数减小,从而减小拟合的波动,防止过拟合的发生

参考:正则化如何防止过拟合的

注:其中,入为正则化因子,是超参数。由于L1正则化最后得到 w向量中将存在大量的 0,使模型变得稀疏化,因此 L2 正则化更加常用。

http://www.dtcms.com/wzjs/514241.html

相关文章:

  • 网站源码.net网络营销实训个人总结
  • pc网站开发获取位置天津seo诊断
  • 大学网站模板html网站优化推广哪家好
  • 网站缩略图代码谷歌关键词排名查询
  • 网站栏目推介怎么做南京网络建站公司
  • 郑州七七网站建设抖音搜索排名优化
  • 怎么样开一个公司网站bt蚂蚁磁力
  • 门户网站 移动端百度关键词排名优化工具
  • 分类信息网站建设专职免费拓客软件
  • 懂做游戏钓鱼网站的自己的app如何接广告
  • react node.js网站开发天天广告联盟
  • 优化关键词可以选择哪个工具网站关键词优化排名怎么做
  • 一站式装修的利弊互联网销售怎么做
  • 笔记本销售网站开发的背景宁波网站关键词优化代码
  • 做篮球视频网站自媒体发布软件app
  • wordpress变英文seo标题优化的方法
  • 长沙模板网站长沙网站建设如何做好网络营销管理
  • 网站建设中最重要的是什么意思新网站 seo
  • 中国门户网站网文推广怎么做
  • 哪个网站可以做测试类广州软件系统开发seo推广
  • 潍坊网站建设排行鹤壁网络推广哪家好
  • 重庆网站界面设计百度推广收费
  • 企业网站设计开发直播网站排名
  • 网站建设公司合伙人重庆网站页面优化
  • 北京 网站建设咨询顾问公司中国科技新闻网
  • 网站后台无编辑器腾讯营销平台
  • 铜仁市网站建设百度图片搜索网页版
  • 建立公司网站流程宣传网站站点最有效的方式是
  • 如何建设一个手机网站今日热搜榜排名
  • 做政府网站服务百度上广告怎么搞上去的