当前位置: 首页 > wzjs >正文

个人网站制作模板图片seo培训师

个人网站制作模板图片,seo培训师,织梦b2b网站模板,海口网站建设正则化代价函数(Regularized Cost Function)详解 正则化代价函数是机器学习中用于防止模型过拟合的核心技术,通过在原始代价函数中添加惩罚项,约束模型参数的大小,从而提高泛化能力。以下是系统化的解析: …

正则化代价函数(Regularized Cost Function)详解

正则化代价函数是机器学习中用于防止模型过拟合的核心技术,通过在原始代价函数中添加惩罚项,约束模型参数的大小,从而提高泛化能力。以下是系统化的解析:


1. 为什么需要正则化?

  • 过拟合问题:当模型过于复杂(如高阶多项式回归、深度神经网络)时,可能完美拟合训练数据但泛化性能差。
  • 解决方案:在代价函数中增加对参数的惩罚,抑制不重要的特征权重。

2. 正则化代价函数的数学形式

(1) 原始代价函数(以线性回归为例)

[
J(\mathbf{w}, b) = \frac{1}{2m} \sum_{i=1}^m ( \hat{y}^{(i)} - y^{(i)} )^2
]

(2) 加入正则化项后的代价函数

[
J_{\text{reg}}(\mathbf{w}, b) = \underbrace{\frac{1}{2m} \sum_{i=1}^m ( \hat{y}^{(i)} - y^{(i)} )^2}{\text{原始损失}} + \underbrace{\lambda \cdot R(\mathbf{w})}{\text{正则化项}}
]

  • ( \lambda ):正则化强度(超参数),控制惩罚力度。
  • ( R(\mathbf{w}) ):正则化项,常见形式为L1或L2。

3. 常见的正则化方法

(1) L2正则化(岭回归,Ridge Regression)

  • 正则化项:参数平方和(欧几里得范数)。
    [
    R(\mathbf{w}) = \frac{1}{2} |\mathbf{w}|2^2 = \frac{1}{2} \sum{j=1}^n w_j^2
    ]
  • 作用:使参数趋向于较小的值,但不强制为零。
  • 更新后的梯度下降公式
    [
    w_j := w_j - \alpha \left( \frac{\partial J}{\partial w_j} + \frac{\lambda}{m} w_j \right)
    ]

(2) L1正则化(Lasso回归)

  • 正则化项:参数绝对值之和(曼哈顿范数)。
    [
    R(\mathbf{w}) = |\mathbf{w}|1 = \sum{j=1}^n |w_j|
    ]
  • 作用:产生稀疏权重矩阵(部分参数恰好为零),自动执行特征选择。
  • 梯度更新(需使用次梯度优化):
    [
    w_j := w_j - \alpha \left( \frac{\partial J}{\partial w_j} + \frac{\lambda}{m} \text{sign}(w_j) \right)
    ]

(3) Elastic Net(弹性网络)

  • 结合L1和L2:平衡两种正则化的优势。
    [
    R(\mathbf{w}) = \lambda_1 |\mathbf{w}|_1 + \lambda_2 |\mathbf{w}|_2^2
    ]

4. 正则化的直观理解

  • L2正则化:将参数限制在一个“圆”内(平滑约束)。

  • L1正则化:将参数限制在一个“菱形”内(尖角导致稀疏性)。


5. 代码实现(Python)

(1) 使用Scikit-learn实现

from sklearn.linear_model import Ridge, Lasso# L2正则化(Ridge回归)
ridge = Ridge(alpha=1.0)  # alpha即λ
ridge.fit(X_train, y_train)# L1正则化(Lasso回归)
lasso = Lasso(alpha=0.1)
lasso.fit(X_train, y_train)

(2) 手动实现梯度下降(L2正则化)

def gradient_descent(X, y, alpha=0.01, lambda_=0.1, epochs=1000):m, n = X.shapew = np.zeros(n)b = 0for _ in range(epochs):y_pred = X.dot(w) + b# 计算梯度(含L2正则化项)dw = (1/m) * X.T.dot(y_pred - y) + (lambda_/m) * wdb = (1/m) * np.sum(y_pred - y)# 更新参数w -= alpha * dwb -= alpha * dbreturn w, b

6. 如何选择正则化类型?

场景推荐方法理由
需要特征选择(稀疏解)L1正则化(Lasso)自动将不重要特征的权重设为零。
参数平滑约束,避免过拟合L2正则化(Ridge)适合特征间相关性高的数据。
高维数据,特征数量远大于样本Elastic Net结合L1和L2的优势。

7. 超参数λ的选择

  • λ过大:模型欠拟合(参数过度压缩,趋于零)。
  • λ过小:正则化效果弱,可能过拟合。
  • 调参方法:网格搜索(GridSearchCV)或交叉验证。
from sklearn.model_selection import GridSearchCV
params = {'alpha': [0.001, 0.01, 0.1, 1.0]}
grid = GridSearchCV(Ridge(), params, cv=5)
grid.fit(X_train, y_train)
print(grid.best_params_)

8. 正则化的数学本质

  • 贝叶斯视角:L2正则化等价于参数的高斯先验,L1等价于拉普拉斯先验。
  • 优化视角:在损失函数中添加约束条件,限制参数空间。

9. 总结

  • 核心目标:通过惩罚大权重降低模型复杂度,提升泛化能力。
  • 关键公式
    [
    J_{\text{reg}} = J(\mathbf{w}, b) + \lambda \cdot R(\mathbf{w})
    ]
  • 实践要点
    1. 数值型特征需先标准化(正则化对尺度敏感)。
    2. 逻辑回归、神经网络等模型均可应用正则化。
    3. 通过验证集性能选择最优的 ( \lambda )。

正则化是机器学习中对抗过拟合的基石技术,合理使用能显著提升模型鲁棒性!

http://www.dtcms.com/wzjs/11156.html

相关文章:

  • 做线下活动的网站域名买卖交易平台
  • 做网站用哪个eclipse有了域名怎么建网站
  • 长春 美容 网站建设搜索关键词
  • easyui做门户网站百度官方客服
  • 随州网站建设学习千锋教育
  • 北京市地铁建设公司网站百度收录入口在哪里
  • 软件开发网站能做seo吗白度
  • 做大数据和网站开发的前景软文怎么写比较吸引人
  • 建设网站入什么科目网络营销推广公司
  • 做网站费用是什么外包seo服务口碑好
  • 百度公司推广电话云南网站seo服务
  • 数据库网站建设多少钱合肥seo公司
  • 网站备案是空间备案还是域名备案电脑系统优化软件哪个好用
  • 嘉兴做网站建设的公司哪家好自己建网站流程
  • 高端网站开发找哪家好seo按天计费系统
  • 自己做的网站怎么赚钱网站安全检测中心
  • 鞍山做百度网站一年多少钱网站查询
  • 网站如何制作企业品牌推广策划方案
  • 企业网站建设与实施调查报告网络营销做得好的企业有哪些
  • 镇江网友之家手机版谷歌seo快速排名软件首页
  • 轻淘客 轻网站怎么做怎样注册网站建立网页
  • tob wordpress福州短视频seo机会
  • asp.net旅游网站管理系统代码做网页怎么做
  • 网站介绍ppt怎么做济南seo公司报价
  • 做查询网站有哪些佛山百度快照优化排名
  • 婚纱摄影行业网站谷歌搜索优化
  • 域名网站做优化外链seo网页优化工具
  • 做旅游网站包括哪些栏目广州网站推广联盟
  • 电商网站设计注意事项奖券世界推广网站
  • 如何建立自己的摄影网站安卓优化大师下载安装到手机