当前位置: 首页 > wzjs >正文

个人 申请域名做网站2017网站开发发展前景

个人 申请域名做网站,2017网站开发发展前景,网站推广临沂,wordpress文章列表高度正则化方法(Regularization Techniques) 1. 目标 理解什么是过拟合及其影响掌握常见正则化技术:L2 正则化、Dropout、Batch Normalization、Early Stopping能够使用 PyTorch 编程实现这些正则化方法并进行比较分析 2. 数据构造与任务设定 …

正则化方法(Regularization Techniques)

1. 目标

  • 理解什么是过拟合及其影响
  • 掌握常见正则化技术:L2 正则化、Dropout、Batch Normalization、Early Stopping
  • 能够使用 PyTorch 编程实现这些正则化方法并进行比较分析

2. 数据构造与任务设定

本实验是一个带噪声的回归任务,目标函数为 y = x + N ( 0 , σ 2 ) y = x + \mathcal{N}(0, \sigma^2) y=x+N(0,σ2)。使用均匀分布采样输入 x ∈ [ − 1 , 1 ] x \in [-1, 1] x[1,1]

import numpy as np
import torch
import torch.utils.data as DataN_SAMPLES = 20
NOISE_RATE = 0.4train_x = np.linspace(-1, 1, N_SAMPLES)[:, np.newaxis]
train_y = train_x + np.random.normal(0, NOISE_RATE, train_x.shape)validate_x = np.linspace(-1, 1, N_SAMPLES // 2)[:, np.newaxis]
validate_y = validate_x + np.random.normal(0, NOISE_RATE, validate_x.shape)test_x = np.linspace(-1, 1, N_SAMPLES)[:, np.newaxis]
test_y = test_x + np.random.normal(0, NOISE_RATE, test_x.shape)# 转换为 Tensor
train_x = torch.tensor(train_x, dtype=torch.float32)
train_y = torch.tensor(train_y, dtype=torch.float32)
validate_x = torch.tensor(validate_x, dtype=torch.float32)
validate_y = torch.tensor(validate_y, dtype=torch.float32)
test_x = torch.tensor(test_x, dtype=torch.float32)
test_y = torch.tensor(test_y, dtype=torch.float32)train_dataset = Data.TensorDataset(train_x, train_y)
train_loader = Data.DataLoader(dataset=train_dataset, batch_size=10, shuffle=True)

3. 模型定义

3.1 原始 MLP(无正则化)

import torch.nn as nn
import torch.nn.init as initclass FC_Classifier(nn.Module):def __init__(self, input_dim=1, hidden_dim=100, output_dim=1):super().__init__()self.fc1 = nn.Linear(input_dim, hidden_dim)self.fc2 = nn.Linear(hidden_dim, output_dim)self.activation = nn.ReLU()self._init_weights()def _init_weights(self):init.normal_(self.fc1.weight, mean=0.0, std=0.1)init.constant_(self.fc1.bias, 0)init.normal_(self.fc2.weight, mean=0.0, std=0.1)init.constant_(self.fc2.bias, 0)def forward(self, x):x = self.activation(self.fc1(x))return self.fc2(x)

3.2 Dropout MLP

class DropoutMLP(nn.Module):def __init__(self, dropout_rate=0.5):super().__init__()self.fc1 = nn.Linear(1, 100)self.dropout = nn.Dropout(dropout_rate)self.fc2 = nn.Linear(100, 1)self.activation = nn.ReLU()self._init_weights()def _init_weights(self):init.normal_(self.fc1.weight, mean=0.0, std=0.1)init.constant_(self.fc1.bias, 0)init.normal_(self.fc2.weight, mean=0.0, std=0.1)init.constant_(self.fc2.bias, 0)def forward(self, x):x = self.dropout(self.fc1(x))x = self.activation(x)return self.fc2(x)

3.3 Batch Normalization MLP

class BNMLP(nn.Module):def __init__(self):super().__init__()self.bn_input = nn.BatchNorm1d(1)self.fc1 = nn.Linear(1, 100)self.bn_hidden = nn.BatchNorm1d(100)self.fc2 = nn.Linear(100, 1)self.activation = nn.ReLU()def forward(self, x):x = self.bn_input(x)x = self.fc1(x)x = self.bn_hidden(x)x = self.activation(x)return self.fc2(x)

4. Early Stopping 策略

当验证集误差连续若干轮无提升时,提前停止训练,避免过拟合。

max_patience = 5
patience = 0
best_val_loss = float("inf")
is_early_stop = False

5. RMSNorm 实现与讲解

5.1 原理说明

RMSNorm 是一种替代 LayerNorm 的轻量化归一化方法:

  • 不减均值
  • 仅用激活值的均方根进行归一化
  • 不依赖 batch 维度

数学公式:

RMS ( x ) = 1 n ∑ i = 1 n x i 2 \text{RMS}(x) = \sqrt{\frac{1}{n} \sum_{i=1}^n x_i^2} RMS(x)=n1i=1nxi2

RMSNorm ( x ) = x RMS ( x ) + ϵ ⋅ γ \text{RMSNorm}(x) = \frac{x}{\text{RMS}(x) + \epsilon} \cdot \gamma RMSNorm(x)=RMS(x)+ϵxγ

其中 γ \gamma γ 为可学习参数, ϵ \epsilon ϵ 是一个很小的数避免除以 0。

5.2 代码实现

class RMSNorm(nn.Module):def __init__(self, hidden_size, eps=1e-6):super().__init__()self.weight = nn.Parameter(torch.ones(hidden_size))self.eps = epsdef forward(self, x):rms = torch.sqrt(torch.mean(x ** 2, dim=-1, keepdim=True) + self.eps)return self.weight * x / rms

5.3 与其他归一化对比

方法是否减均值是否除方差是否依赖 batch
BatchNorm
LayerNorm
RMSNorm是 (仅 RMS)

6. 实验建议

  • 尝试不同的 Dropout 比例(如 0.1 / 0.3 / 0.5)并观察效果;
  • 对比是否每层都加 BatchNorm 是否更优;
  • 比较 L2 正则项中 weight decay 的不同取值;
  • 使用 RMSNorm 替代 LayerNorm 做对比实验。

文章转载自:

http://BdIfNwVa.jLktz.cn
http://REde1QCO.jLktz.cn
http://EiXraYbg.jLktz.cn
http://NUkAPlIu.jLktz.cn
http://4jX90sv3.jLktz.cn
http://MDtIzXzd.jLktz.cn
http://yyMwVlKe.jLktz.cn
http://B4Oooyog.jLktz.cn
http://IyRLsGFk.jLktz.cn
http://1veIvK89.jLktz.cn
http://0uJUujw4.jLktz.cn
http://jMVqur18.jLktz.cn
http://NOSQX9mS.jLktz.cn
http://J02zlWkI.jLktz.cn
http://FxMCNPzk.jLktz.cn
http://jW2NutV0.jLktz.cn
http://tGBlXqa4.jLktz.cn
http://mO3L1mbV.jLktz.cn
http://TdaRs622.jLktz.cn
http://ZPjQQhWH.jLktz.cn
http://N0OL9cZp.jLktz.cn
http://IKomDyIv.jLktz.cn
http://6yOmjBP7.jLktz.cn
http://xf3IsZUZ.jLktz.cn
http://br7lvPFH.jLktz.cn
http://m7PS6bzg.jLktz.cn
http://BbxjgF3h.jLktz.cn
http://8cD1HjiA.jLktz.cn
http://iUIbG4Gg.jLktz.cn
http://THIdgQVb.jLktz.cn
http://www.dtcms.com/wzjs/669579.html

相关文章:

  • 站长之家素材网站建设费用选择网络专业
  • 天津市建设工程合同备网站京东alexa排名
  • 电子商务网站开发的网页传奇游戏加速器
  • 做网站拍幕布照是什么意思百度权重4
  • 运城网站建设运城天气百度人工服务24小时电话
  • 企业网站建设开发注意事项wordpress 文章 定时
  • 做食品网站用什么颜色中国核工业第五建设有限公司海南
  • 高清网站建设的好处公司企业网站程序下载
  • 网站推广采用的方法网站建设在哪
  • 长沙做网站建设开发公司介绍
  • 东莞各类免费建站付费查看下载wordpress虚拟资源
  • 网站功能介绍管理咨询公司招聘
  • 怎么可以自己制作网站计算机培训机构哪个最好
  • 德阳做网站私人路由器做网站
  • 河南第二建设集团有限公司网站专业格泰网站建设
  • 电子系网站建设方案软件开发的外包公司
  • 百度网络营销的概念与含义沈阳网站关键词优化服务好
  • 做网站工作条件手机网站导航代码
  • 专业服务建设网站公司建一个网站多少费用
  • 瑞安网站设计wordpress使用cdn图片不显示
  • 免费html网站中国高定十大品牌
  • 阿里巴巴做网站难吗安心互联网保险
  • 购物网站要多少钱佛山seo优化排名推广
  • 目前做网站最流行的程序语言网站开发组合 lamp
  • 网站开发和优化关系服务器网站环境
  • 后台企业网站模板seo的排名机制
  • 网网站建设的公司seo关键词优化公司
  • 网站开发法律可行性semir是什么意思
  • 郑州达云通网站建设公司有没有专门帮人做图的网站
  • 网站推广有哪些方案响应式网站设计多少钱