当前位置: 首页 > news >正文

机器学习总结

1.BN【batch normalization】

https://zhuanlan.zhihu.com/p/93643523

减少 

2.L1L2正则化

l1:稀疏

l2:权重减小

3.泛化误差

训练误差计算了训练集的误差,而泛化误差是计算全集的误差。

4.dropout

训练过程中神经元p的概率失活

一文彻底搞懂深度学习:正则化(Regularization)-CSDN博客

5.train里该有什么

# 设置损失函数和优化器

    criterion = torch.nn.MSELoss()

    optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)

    scheduler = torch.optim.lr_scheduler.ReduceLROnPlateau(

        optimizer, mode='min', factor=0.5, patience=patience//4, verbose=True

    )

for epoch in range(epochs):

        # 训练阶段

        model.train()

        epoch_loss = 0.0

        batch_count = 0

       

        for inputs, targets in train_loader:

              optimizer.zero_grad()

            outputs = model(inputs)

            loss = criterion(outputs, targets)

            loss.backward()

            optimizer.step()

//定期验证

http://www.dtcms.com/a/184752.html

相关文章:

  • 操作系统原理实验报告
  • 常用的rerank模型有哪些?都有什么优势?
  • AI(学习笔记第三课) 使用langchain进行AI开发(2)
  • Java原生结合MQTTX---完成心跳对话(附带源码)
  • Linux 进程等待
  • 数字化工厂中央控制室驾驶舱系统 API接口文档
  • 洛谷题目:P1673 [USACO05FEB] Part Acquisition S 题解(本题简)
  • python【扩展库】websockets
  • C 语言报错 xxx incomplete type xxx
  • STM32f103 标准库 零基础学习之按键点灯(不涉及中断)
  • 二叉搜索树讲解
  • Funplus 服务端开发实习 面经
  • robomaster机甲大师--电调电机
  • Transformer Decoder-Only 算力FLOPs估计
  • 仿真生成激光干涉包裹相位数据-用于深度学习训练!
  • 【信息系统项目管理师】第3章:信息系统治理 - 29个经典题目及详解
  • RHCSA Linux系统 Web页面 论坛 网盘的搭建
  • 架构思维:通用架构模式_怀疑下游的设计思路与最佳实践
  • 基于 TSBS 标准数据集下 TimescaleDB、InfluxDB 与 TDengine 性能对比测试报告
  • 花朵识别系统Python+深度学习+卷积神经网络算法+TensorFlow+人工智能
  • MySQL的索引分类
  • CSS 基础知识分享:从入门到注意事项
  • 基础框架搭建流程指南
  • 如何获取达梦数据库的官方文档?
  • 温湿度传感器SHT4X
  • SpringBoot 自动装配原理 自定义一个 starter
  • 【并发编程】Redisson 的分布式锁
  • 设计模式系列(1):总览与引导
  • 使用PHP对接印度股票市场API
  • 沐言智语开源Muyan-TTS模型,词错率、语音质量评分都处于开源模型的一线水平,推理速度相当快~