当前位置: 首页 > news >正文

可以做推广的门户网站行业门户网站模板

可以做推广的门户网站,行业门户网站模板,淘宝网站建设的目标什么,怀化网络推广公司机器学习(Machine Learning) 简要声明 基于吴恩达教授(Andrew Ng)课程视频 BiliBili课程资源 文章目录 机器学习(Machine Learning)简要声明 三、代价函数平方误差代价函数逻辑回归的损失函数损失函数的性质 逻辑回归的代价函数代…

机器学习(Machine Learning)

简要声明

基于吴恩达教授(Andrew Ng)课程视频
BiliBili课程资源


文章目录

  • 机器学习(Machine Learning)
    • 简要声明
  • 三、代价函数
    • 平方误差代价函数
    • 逻辑回归的损失函数
      • 损失函数的性质
    • 逻辑回归的代价函数
    • 代价函数的凸性
    • 简化的损失函数
    • 简化的代价函数


一、逻辑回归的基本原理

二、决策边界

三、代价函数

平方误差代价函数

在逻辑回归中,如果我们直接使用线性回归的平方误差代价函数:

J ( w → , b ) = 1 m ∑ i = 1 m 1 2 ( f w → , b ( x → ( i ) ) − y ( i ) ) 2 J(\overrightarrow{w}, b) = \frac{1}{m} \sum_{i=1}^{m} \frac{1}{2} (f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}) - y^{(i)})^2 J(w ,b)=m1i=1m21(fw ,b(x (i))y(i))2

其中, f w → , b ( x → ) = w → ⋅ x → + b f_{\overrightarrow{w}, b}(\overrightarrow{x}) = \overrightarrow{w} \cdot \overrightarrow{x} + b fw ,b(x )=w x +b 是线性回归模型的输出。

然而,对于逻辑回归,这种代价函数可能会导致非凸问题,使得梯度下降算法难以收敛到全局最小值。

在这里插入图片描述
线性回归
在这里插入图片描述
并不像线性回归的“汤碗”那么光滑

逻辑回归的损失函数

为了解决这个问题,逻辑回归采用了不同的损失函数。对于单个训练样本 ( x → ( i ) , y ( i ) ) (\overrightarrow{x}^{(i)}, y^{(i)}) (x (i),y(i)),逻辑回归的损失函数定义为:

L ( f w → , b ( x → ( i ) ) , y ( i ) ) = { − l o g ( f w → , b ( x → ( i ) ) ) if  y ( i ) = 1 − l o g ( 1 − f w → , b ( x → ( i ) ) ) if  y ( i ) = 0 L(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}), y^{(i)}) = \begin{cases} -log(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) & \text{if } y^{(i)} = 1 \\ -log(1 - f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) & \text{if } y^{(i)} = 0 \end{cases} L(fw ,b(x (i)),y(i))={log(fw ,b(x (i)))log(1fw ,b(x (i)))if y(i)=1if y(i)=0

其中, f w → , b ( x → ) = 1 1 + e − ( w → ⋅ x → + b ) f_{\overrightarrow{w}, b}(\overrightarrow{x}) = \frac{1}{1 + e^{-(\overrightarrow{w} \cdot \overrightarrow{x} + b)}} fw ,b(x )=1+e(w x +b)1 是逻辑回归模型的输出。

损失函数的性质

  • y ( i ) = 1 y^{(i)} = 1 y(i)=1 时:

    • 如果 f w → , b ( x → ( i ) ) → 1 f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}) \to 1 fw ,b(x (i))1,损失 → 0 \to 0 0
    • 如果 f w → , b ( x → ( i ) ) → 0 f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}) \to 0 fw ,b(x (i))0,损失 → ∞ \to \infty
  • y ( i ) = 0 y^{(i)} = 0 y(i)=0 时:

    • 如果 f w → , b ( x → ( i ) ) → 0 f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}) \to 0 fw ,b(x (i))0,损失 → 0 \to 0 0
    • 如果 f w → , b ( x → ( i ) ) → 1 f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}) \to 1 fw ,b(x (i))1,损失 → ∞ \to \infty

这种损失函数的设计使得模型在预测错误时付出更大的代价,从而激励模型尽可能准确地预测。
在这里插入图片描述

逻辑回归的代价函数

逻辑回归的代价函数是所有训练样本损失的平均值:

J ( w → , b ) = 1 m ∑ i = 1 m L ( f w → , b ( x → ( i ) ) , y ( i ) ) J(\overrightarrow{w}, b) = \frac{1}{m} \sum_{i=1}^{m} L(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}), y^{(i)}) J(w ,b)=m1i=1mL(fw ,b(x (i)),y(i))

展开后为:

J ( w → , b ) = 1 m ∑ i = 1 m { − l o g ( f w → , b ( x → ( i ) ) ) if  y ( i ) = 1 − l o g ( 1 − f w → , b ( x → ( i ) ) ) if  y ( i ) = 0 J(\overrightarrow{w}, b) = \frac{1}{m} \sum_{i=1}^{m} \begin{cases} -log(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) & \text{if } y^{(i)} = 1 \\ -log(1 - f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) & \text{if } y^{(i)} = 0 \end{cases} J(w ,b)=m1i=1m{log(fw ,b(x (i)))log(1fw ,b(x (i)))if y(i)=1if y(i)=0

代价函数的凸性

逻辑回归的代价函数是凸的,这意味着它只有一个全局最小值,梯度下降算法可以保证收敛到这个全局最小值。

相比之下,平方误差代价函数在逻辑回归中可能会导致非凸问题,使得梯度下降算法陷入局部最小值。
在这里插入图片描述

简化的损失函数

逻辑回归的损失函数可以简化为一个统一的表达式:

L ( f w → , b ( x → ( i ) ) , y ( i ) ) = − y ( i ) log ⁡ ( f w → , b ( x → ( i ) ) ) − ( 1 − y ( i ) ) log ⁡ ( 1 − f w → , b ( x → ( i ) ) ) L(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)}), y^{(i)}) = - y^{(i)} \log(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) - (1 - y^{(i)}) \log(1 - f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) L(fw ,b(x (i)),y(i))=y(i)log(fw ,b(x (i)))(1y(i))log(1fw ,b(x (i)))

这个表达式结合了两种情况:

  • y ( i ) = 1 y^{(i)} = 1 y(i)=1 时,损失函数为 − log ⁡ ( f w → , b ( x → ( i ) ) ) - \log(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) log(fw ,b(x (i)))
  • y ( i ) = 0 y^{(i)} = 0 y(i)=0 时,损失函数为 − log ⁡ ( 1 − f w → , b ( x → ( i ) ) ) - \log(1 - f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) log(1fw ,b(x (i)))

简化的代价函数

逻辑回归的代价函数也可以相应地简化为:

J ( w → , b ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ ( f w → , b ( x → ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − f w → , b ( x → ( i ) ) ) ] J(\overrightarrow{w}, b) = - \frac{1}{m} \sum_{i=1}^{m} \left[ y^{(i)} \log(f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) + (1 - y^{(i)}) \log(1 - f_{\overrightarrow{w}, b}(\overrightarrow{x}^{(i)})) \right] J(w ,b)=m1i=1m[y(i)log(fw ,b(x (i)))+(1y(i))log(1fw ,b(x (i)))]

这个代价函数实际上是对数似然函数的负数,因此最小化这个代价函数等价于最大化似然函数。这种方法被称为 最大似然估计(Maximum Likelihood Estimation)。

逻辑回归采用了不同于线性回归的损失函数,以适应分类问题的特点。其代价函数是凸的,保证了梯度下降算法可以收敛到全局最小值。通过最小化这个代价函数,我们可以找到最优的模型参数,使模型在训练数据上的表现最佳。


continue…

http://www.dtcms.com/a/396994.html

相关文章:

  • wordpress 线条不显示专业的临沂网站优化
  • 网站没有排名三种WordPress引流方法
  • 四川省建设科技协会网站群晖nas建设网站
  • 门户建设网站方案seo优化网站源码
  • 网站美化软件怀柔网站建设优化seo
  • 潍坊seo建站做网站的团队
  • 什么网站可以找到防水工程做找网站开发
  • 工业设计网站排行榜前十名有哪些太原网站设计排名
  • 建设部标准定额司网站有什么做vi设计的网站
  • 济宁教育平台网站建设网站的内部优化公司
  • 新余+网站建设虚拟网站规划与设计
  • 设计师作品展示网站seo咨询邵阳
  • 网站 备案 中国 名字吗营销网站建设与推广方案
  • 网站改版后 搜索不到旅游网站建设策划书案例
  • 专业金融网站建设微信创建小程序
  • 怎样做建网站做淘客华为企业邮箱
  • 西安网站建设孙正学商业网站需要多少钱
  • 成都网站推广 优帮云安卓优化大师app下载
  • 合肥seo整站优化网站网店模板素材
  • 上海网站推广公司上海网站设计厂家
  • 建外贸网站 东莞北京网站建设icp有限公司
  • 如何在iis下建设网站域名防红短链接生成
  • 想自己做衣服上哪个网站学地方门户网站的推广
  • 合肥网站seo技术重庆公司名字
  • 58同城网站建设规划网站运营推广
  • 眼科医院网站做竞价带来的询盘量建立网站第一步怎么做
  • 经典网站设计作品做网站要实名认证吗
  • 百度关键词竞价价格查询山东seo推广平台
  • 建设专业网站wordpress 增加 SEO
  • 网站域名是不是网址wordpress 调用菜单