当前位置: 首页 > wzjs >正文

网站建设cms铜川网站seo

网站建设cms,铜川网站seo,网站怎么做吸引人,哪个地方可学习网站建设2.3 机器学习类型 回归问题,分类问题(人脸识别问题,垃圾邮件检测等等),图像聚类(无监督学习),强化学习(AlphaGo)通过与环境进行交互学习。 下面是集中常见的…

2.3 机器学习类型

回归问题,分类问题(人脸识别问题,垃圾邮件检测等等),图像聚类(无监督学习),强化学习(AlphaGo)通过与环境进行交互学习。

下面是集中常见的机器学习类型:

监督学习的典型问题是回归和分类问题,

无监督学习的典例问题是聚类,降维,密度估计

2.4 机器学习要素

①数据:可以通过给出的数据分出不同的机器学习类型,数据非常关键,从数据中抽取特征,这是特征抽取问题,或者我们自动抽取特征,就是一个表示学习。

②模型

③学习准则

④优化算法

但是我们常说的是后面三个要素

2.4.1 模型:(得到 x 到 y的映射关系)

以回归为例:①简单的线性模型:

我们人工定义一个模型函数为:\theta表示要学习的参数,是参数的总称,具体的可以有权重系数w,和偏置 b。

②非线性模型:

此时,我们定义一个函数为:,只需在原来的线性模型进行修改,把原来线性里面的x套一个函数,我们称这个函数为基函数,通常是非线性的,即把x做一次非线性变换。

如果是一个可学习的非线性基函数,那么这个模型就相当于是神经网络。

2.4.2 学习准则:

一个好的模型应该在所有取值上都与真实映射函数一致

 模型的预测与真实函数一致,是如何衡量的——使用损失函数

①损失函数:

是一个非负实数函数,用来量化模型预测和真实标签之间的差异。

以回归问题为例:

平方损失函数:,假设f(x..)这部分是模型预测,y是真实标签。

当模型预测和真实值之间的差值越小,损失函数的结果就越小,表示损失越小。我们希望找到一个

\theta参数,使得损失最小。该损失函数是定义在一个具体的x 和 y上面的。

②期望风险:

模型的学习准则定义为(理想):损失函数在真实的数据分布中的期望最小化。找到参数,使得期望风险最小化。但是由于真实数据分布的不确定性,使得期望风险不能直接计算。

大数定律(Law of Large Numbers, LLN)是概率论的核心定理之一,它描述了在重复独立试验中,随机事件的频率会随着试验次数的增加而稳定趋近于其理论概率。通俗地说,当实验次数足够多时,“偶然性”会被“规律性”覆盖。

所以既然真实数据分布不知道,就可以采集样本,这些样本就构成一个训练集,以此得到真实学习准则(损失函数)。

期望风险可以近似为:(通过大数定律近似)

①训练数据:

②经验风险:。当N趋向于无穷大时,经验风险就逼近与期望风险。

那么,我们的学习准则就变为了经验风险最小化:

①寻找一个参数,使得经验风险最小化。.这个问题为优化问题。

所以当风险函数确定后,机器学习问题转化为一个最优化问题。

2.4.3 最优化问题

①方法1:使用凸优化问题中的一阶导为0;

②方法2:大众化方法。使用梯度下降法

,我们也称搜索步长为超参数,指的是需要人为选择的,而不是学习得来的。

a) 随机梯度下降法:

在每次迭代时只采集一个样本,需要进行更新

当经过足够的迭代次数时,随机梯度下降也可以收敛到局部最优解。但是因为每次都是采集一个样本,所以无法充分利用计算机的并行计算能力,折中方法就是 小批量随机梯度下降法。

b) 小批量随机梯度下降法:

随机选取一小部分训练样本去计算梯度并更新参数;既可以兼顾随机梯度下降法的优点,又可以提高训练效率。

2.5 泛化与正则化

欠拟合:按照线性模型来讲,拟合出的线时一条直线,与真实情况的差异很大。模型能力不足,使得错误率很高,这种情况为欠拟合。

过拟合:使用更加复杂的模型去拟合,虽然在训练集上的错误率很低,几乎为0,但是拟合出的线不是我们所期望的,在未知数据上的错误率很高。往往是由于训练数据少,或者模型复杂度高。

泛化误差:

是期望风险和经验风险之间的差。

当期望风险很大,但是经验风险底时,两者差值大,出现过拟合。

如何减少泛化误差?

优化——经验风险最小,会找到很复杂的模型,但是会造成过拟合;

正则化——降低模型复杂度,减少泛化误差。

正则化:

所有损害优化的方法都是正则化。

提前停止:

使用一个验证集,测试每一次迭代的参数在验证集上是否时最优。

如果在验证集上的错误率不再下降,就停止迭代。

2.6 线性回归

回归定义:

1)模型

在上面的模型中,参数b是可以消掉的。引入两个新变量去解释。

增广权重向量:

增广特征向量:

变化之后,两者都为D+1维向量,则原来的模型就变为:

.就可以直接写成不含b的模型。

2)回归问题在训练集D上的经验风险:

损失函数用的是平方损失函数。

那么经验风险有了之后,就开始令经验风险最小化。

经验风险最小化:

,解出其中的w即可。

矩阵微积分:

标量关于向量的偏导数:一个标量关于向量的偏导数还是向量。都是列向量

向量关于向量的偏导数:一个向量关于另一个向量的偏导数是一个矩阵

向量函数及其导数:

结构风险:后面的新加项就是正则化项,用来约束w,前面的系数越大对w的约束越大,前面系数是超参数

令其最小化:

岭回归。

下面引自知乎的文章,更近一步的理解线性回归。

回归的目的:通过找到的线来预测未来

回归之所以能预测,是因为它的底层逻辑是:通过历史数据,摸透了“套路”,然后通过这个套路来预测未来的结果。

注意:在回归中,我们要预测的target是连续型数据(降雨量,房价,长度,密度这些)

2.7 多项式回归

跟上面的线性回归中的非线性模型一样。

2.8 线性回归的概率视角

2.9 模型选择和 “偏差-方差”分解

http://www.dtcms.com/wzjs/66453.html

相关文章:

  • 昆明网站建设开发怎样制作免费网页
  • php网站开发缓存的运用360优化大师官网
  • 江西建设网站外链兔
  • 类似1688的采购平台有哪些长沙seo网站优化
  • 有没有免费做编辑网站管理系统网络营销软件推广
  • 成都网站建设公司官网网络营销企业网站优化
  • 简述网站设计的开发流程青岛谷歌优化公司
  • 做网站建设怎么找客户免费注册
  • 个人网站有什么限制手游推广平台
  • 实验室网站建设seo课程排行榜
  • 怎么知道网站是否被百度收录seo技术最新黑帽
  • 武汉易天时代网络服务有限公司百度seo关键词优化市场
  • wordpress 子域名 函数seo信息优化
  • 北京西站附近景点比百度好用的搜索软件手机版
  • 昆明做网站优化公司潍坊网站seo
  • 用手机怎么做免费网站广东百度seo
  • 有设计师做的装修效果图的网站专业的制作网站开发公司
  • 网站空间域名信息流广告投放工作内容
  • 杭州网站建设过程建设官网的网站首页
  • wordpress设置模板做seo有什么好处
  • 做母亲节网站的素材推广公司属于什么公司
  • 做网站外包哪家好网络营销企业网站推广
  • 北京个人做网站迅雷bt磁力链 最好用的搜索引擎
  • 襄城县做网站的seo标签优化
  • 仙桃做网站的公司云盘搜索引擎入口
  • 自己做网站制作流程宁波seo快速优化平台
  • 地球村网站建设seo培训班 有用吗
  • 建设网站的网站底压电工证企业营销网站
  • 方城网站制作国内重大新闻
  • 36kr网站用什么做的北京网站搭建哪家好