当前位置: 首页 > news >正文

深度学习复习笔记

深度前馈神经网络

卷积神经网络

Advanced卷积神经网络

Lightweight CNN

dwconv

squeezenet

这边右侧的e3是3x3卷积吧

SENet

在通道维度压一下,强迫各维度混合学习,再还原

ShuffleNet

Group Convolution在 AlexNet 中引入,用于将模型分布到两块 GPU 上。但这样某个通道的输出只能来自一小部分输入通道,这样阻止了通道之间的信息流

打乱通道就能交流了

CondenseNet

分组卷积存在通道之间的信息沟通不畅以及特征多样性不足的问题。CondenseNet提出的解决策略是在训练的过程中让模型选择更好的分组方式
自学习分组卷积可以分成两个阶段:浓缩阶段和优化阶段。其中浓缩阶段用于剪枝没用的特征,优化阶段用于优化剪枝之后的网络。
浓缩时,在训练该网络时使用了分组lasso正则项,会有 1/C 的特征被剪枝掉
CondenseNet的剪枝并不是直接将这个特征删除,而是通过掩码的形式将被剪枝的特征置0,因此在训练的过程中CondenseNet的时间并没有减少,反而会需要更多的显存用来保存掩码

EfficientNet

用NAS调模型宽度和深度

间隔损失

contrastive loss

其中d代表两个样本特征的欧氏距离,y为两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配。margin为设定的阈值,这种损失函数主要是用在降维中,即本来相似的样本,在经过降维(特征提取)后,在特征空间中,两个样本仍旧相似;而原本不相似的样本,在经过降维后,在特征空间中,两个样本仍旧不相似。

Triplet Loss

输入是一个三元组 <a, p, n>

  • a: anchor,表示一个基准样本
  • p: positive, 与 a 是同一类别的样本,比如就是同一个人的照片
  • n: negative, 与 a 是不同类别的样本,比如就是不同人的照片

希望让a和p的距离尽可能小,而a和n的距离尽可能大

Center Loss

为了解决open set问题,即当训练集和测试集的类别不完全相同的情况

通过MSE做类似聚类的loss,保证最小化类内距离的同时保证特征可分,来提高特征之间的可判别性

L-Softmax

在softmax基础上将 theta 1 乘以正整数m

m越大,决策间隔越大

Modified Softmax

限制了一些条件:∥Wi∥=1,bi=0,由这些条件,可以得到修正的损失函数

相关文章:

  • 循环神经网络(RNN):为什么它能处理时序数据?它真的能减轻过拟合吗?
  • 文字转图片的字符画生成工具
  • 打卡day41
  • 【Ant Design】解决树形组件面板收起问题
  • C++题解(34) 2025年顺德区中小学生程序设计展示活动(初中组C++)U560289 字符串排序(一)和 U560136 字符串排(二)题解
  • 现代密码学 | 高级加密标准(AES)
  • Syslog 全面介绍及在 C 语言中的应用
  • 主流电商平台的反爬机制解析
  • Idea使用springAI搭建MCP项目
  • 使用摄像头推流+VLC软件拉流
  • 跟我学c++中级篇——动态库的资源处理
  • 气体放电管(GDT)选型时需要注意的事项
  • 前端流式接收数据讲解
  • 分表后如何做分页查询?
  • Linux之Nginx配置篇
  • 【Java工程师面试全攻略】Day4:JVM原理与性能调优深度解析
  • Redis-6.2.9 主从复制配置和详解
  • 近屿智能第六代 AI 得贤招聘官首秀 —— 解锁「拟人化智能交互」AI面试新体验
  • 128、STM32H723ZGT6实现串口IAP
  • AtCoder Beginner Contest 407(ABCDEF)
  • 国外注册的域名国内做的网站/网站建设公司网站
  • 北京做网站的大公司/英文网站建设
  • 微信公众号登录入口手机版/新媒体seo指的是什么
  • 绿植网站怎么做/国家最新新闻
  • 政府网站开发的目的/2023年时政热点事件
  • 阿里云免费网站备案/太原网站推广公司