当前位置: 首页 > news >正文

PyTorch实现权重衰退:从零实现与简洁实现

一、权重衰退原理

权重衰退(L2正则化)通过向损失函数添加权重的L2范数惩罚项,防止模型过拟合。其损失函数形式为:


二、从零开始实现

1.1 导入库与数据生成

%matplotlib inline
import torch
from torch import nn
from d2l import torch as d2l# 超参数设置
train_samples, test_samples, inputs, batch_size = 20, 100, 200, 5
true_w, true_b = torch.ones((inputs, 1)) * 0.01, 0.05# 生成合成数据
train_data = d2l.synthetic_data(true_w, true_b, train_samples)
train_iter = d2l.load_array(train_data, batch_size)
test_data = d2l.synthetic_data(true_w, true_b, test_samples)
test_iter = d2l.load_array(test_data, batch_size)

1.2 模型参数初始化

def init_params():w = torch.normal(0, 1, size=(inputs, 1), requires_grad=True)b = torch.zeros(1, requires_grad=True)return [w, b]

1.3 定义L2正则化

def l2_penalty(w):return torch.sum(w**2) / 2

1.4 训练函数

def train(l):w, b = init_params()net = lambda x: d2l.linreg(x, w, b)loss = d2l.squared_lossepochs, lr = 100, 0.03animator = d2l.Animator(xlabel='epoch', ylabel='loss', yscale='log',xlim=[5, epochs], legend=['train', 'test'])for epoch in range(epochs):for X, y in train_iter:l_ = loss(net(X), y) + l * l2_penalty(w)l_.sum().backward()d2l.sgd([w, b], lr, batch_size)if (epoch + 1) % 5 == 0:animator.add(epoch + 1, (d2l.evaluate_loss(net, train_iter, loss),d2l.evaluate_loss(net, test_iter, loss)))print(f"w的L2范数: {torch.norm(w).item():.5f}")

1.5 训练结果

不使用权重衰退(λ=0)
train(l=0)

输出结果

w的L2范数: 13.72006

使用权重衰退(λ=3) 
train(lambd=3)

输出结果

w的L2范数: 0.0426

2. PyTorch简洁实现

2.1 定义模型与训练

def train_concise(lambd):net = nn.Sequential(nn.Linear(inputs, 1))for param in net.parameters():param.data.normal_()loss = nn.MSELoss()optimizer = torch.optim.SGD([{"params": net[0].weight, "weight_decay": lambd},{"params": net[0].bias}], lr=0.03)animator = d2l.Animator(xlabel='epoch', ylabel='loss', yscale='log',xlim=[5, 100], legend=['train', 'test'])for epoch in range(100):for X, y in train_iter:optimizer.zero_grad()l = loss(net(X), y)l.backward()optimizer.step()if (epoch + 1) % 5 == 0:animator.add(epoch + 1, (d2l.evaluate_loss(net, train_iter, loss),d2l.evaluate_loss(net, test_iter, loss)))print(f"w的L2范数: {torch.norm(net[0].weight).item():.4f}")

2.2 训练结果

不使用权重衰退(λ=0)
train_concise(0)

输出结果

w的L2范数: 14.3265

使用权重衰退(λ=3) 
train_concise(3)

输出结果

w的L2范数: 0.0528

关键点解析

  1. L2正则化:通过向损失函数添加权重的平方和项(λ * ||w||^2),限制权重的大小,防止过拟合。

  2. 参数对比

    • 无正则化时,权重范数较大(13.72),模型可能过拟合。

    • 加入正则化后,权重范数显著降低(0.04),模型更稳定。

  3. 损失曲线:正则化后测试损失与训练损失更接近,表明泛化能力提升。


常见错误解决

在简洁实现中,若出现 TypeError: 'function' object is not iterable,请检查:

  1. evaluate_loss 的参数是否正确传递数据迭代器(如 train_iter 而非 train)。

  2. 确保数据加载器已正确定义。


通过本文,读者可以掌握权重衰退的核心思想,并学会在PyTorch中实现正则化方法。完整代码已通过测试,可直接运行。

相关文章:

  • 蓝桥杯嵌入式开发板结构分析及功能学习笔记
  • 5.跳表(skiplist)
  • C++ | STL之list详解:双向链表的灵活操作与高效实践
  • 【项目管理】第17章 项目干系人管理-- 知识点整理
  • GEO供应商盈达科技发布:AI信源占位白皮书​
  • IDEA类图标识
  • AI驱动SEO关键词实战策略
  • 基于RV1126开发板的rknn-toolkit-lite使用方法
  • 【Docker-13】Docker Container容器
  • Google提示工程
  • Active Directory域服务管理与高级应用技术白皮书
  • Linux 深入浅出信号量:从线程到进程的同步与互斥实战指南
  • Leetcode 3514. Number of Unique XOR Triplets II
  • python爬虫 线程,进程,协程
  • Oracle数据库数据编程SQL<01. 课外关注:数据库查重方法全面详解>
  • Linux指令和权限(10-3)
  • 聚铭网络亮相2025超云产品技术大会,联合发布“铭智安全运营大模型一体机及解决方案”
  • Rust 之五 所有权、.. 和 _ 语法、引用和切片、Vec<T>、HashMap<K, V>
  • MIT6.S081 - Lab8 Locks(锁优化 | 并发安全)
  • HTTP请求方法安全剖析(不安全的网络请求方法):从CVE-2017-12615看PUT/DELETE的风险利用
  • 徐丹任武汉大学药学院院长:研究领域在国际上处领跑地位
  • 德雷克海峡发生7.4级地震,震源深度10千米
  • 上海浪琴环球马术冠军赛明日启幕!五一假期在这里感受精彩
  • 空间站第八批科学实验样品返抵地球并交付科学家
  • 超越梅罗,这样一个亚马尔折射巴萨的容错率
  • 来上海喝云南咖啡!上海国际咖啡文化节助力咖啡产业破圈出海