RegNet:高效可扩展网络
源码、配套笔记&讲解视频,点击文末名片获取
- 研究背景和动机
在深度学习的发展过程中,研究者们一直在思考:“什么样的网络结构才是最有效的?”
- 早期手工设计的时代
- LeNet、AlexNet、VGG、ResNet 等模型,都是人工设计的。研究者不断试错,改进网络深度、宽度、卷积方式,逐渐提升了准确率。
- 但这种方式很依赖人的直觉和经验,设计成本高,而且不一定能找到最优解。
- 自动搜索的时代(NAS)
- 后来出现了 神经网络架构搜索(NAS),让计算机自动在一个设计空间里搜索最优网络。
- 这种方法确实能找到性能很强的模型(比如 MnasNet、EfficientNet),但也有问题:
- 搜索开销大,训练成本很高;
- 得到的网络结构往往复杂,缺乏直观的“设计规律”,人类很难理解其中的核心规律。
- RegNet 提出的新思路
- 论文作者(Facebook AI Research,FAIR)提出:
- 我们不只是想找到一个“最优模型”,而是希望找到一类 规律性的网络设计空间。
- 就像研究植物生长,不是只想找一棵长得快的树,而是要总结出 植物生长的一般规律。
- 因此,RegNet 的目标是:
- 把设计网络提升到“群体层面”,而不是一个一个模型去试。
- 找到能解释“为什么某些结构好用”的 简洁设计规则,从而帮助后续研究者更快设计模型。
- 论文作者(Facebook AI Research,FAIR)提出:
2、RegNet的创新点
RegNet 的创新点不在于“某个新模块”,而在于“总结规律”。
它的贡献是:通过大量实验,发现优秀卷积网络的 通道数随深度变化是有规律的,可以用一条简单的函数来描述。
这让我们能用 简单规则 → 高效地生成一整个模型家族。
(1)发现“好模型的共性规律”
- 作者训练了上千个不同的网络结构(通过改变深度、宽度分布等),然后对比性能。
- 他们发现:表现好的模型,往往在不同层的通道数增长模式非常规律。
- 而那些表现差的模型,通道数增长是杂乱无章的。
📌 类比:
就像种树,你发现长得快、结实的树,树干粗细的增长是有规律的(比如慢慢变粗),而不是乱长。
(2)用简单函数描述网络设计
- 作者提出:优秀网络的通道数分布,可以用 一个线性函数 来描述。
- 换句话说:网络不需要复杂的手工调节,只要把“宽度随深度变化”的规律写成一条直线,就能生成高效网络。
📌 类比:
修高速公路时,如果车道数从头到尾乱变(2→7→3→9…),车流会很混乱;
如果车道数按一个固定规律慢慢变宽(比如每隔 10 公里就加 1 条车道),车流就会更顺畅。
RegNet 就是把这个规律总结出来。
(3)提出“可正则化的设计空间”(Design Space)
- 传统 NAS 是在一个巨大的、不规则的搜索空间里乱找;
- RegNet 提出了一个 规则化(Regularized)的搜索空间,即所有网络的设计都服从通道数增长的规律。
- 在这个规则下,模型既容易搜索,又更可解释。
📌 类比:
NAS 就像是“把工人随便扔进工厂看他们怎么干”;
RegNet 则是“先制定规范:每个工人都按统一标准分班分工”,这样整体更高效。
(4)生成一整套模型家族
- 通过简单的函数设定参数,RegNet 可以快速生成从小到大的多个模型(RegNet-X, RegNet-Y 系列)。
- 这些模型在 准确率、速度、内存开销 上都能实现更好的平衡。
- 这比 EfficientNet 的“复合缩放”更直观、更灵活。
📌 类比:
EfficientNet 是先造一个工厂,再按比例缩放;
RegNet 是直接给出“工厂扩建的规律”,能轻松生成一整套从小工厂到大工厂的版本。
- RegNet 的网络结构
(1)整体框架
RegNet 的基本网络结构,和 ResNet、MobileNet 这些常见 CNN 很像:
- 输入层(Stem)
- 主体部分(由多个 stage 组成)
- 分类头(Head)
但是不同的是:RegNet 的每个 stage 的通道数不是随便定的,而是由一条“线性函数”决定的。
(2)结构分块
271. Stem(输入层)
- 一个 3×3 卷积,把输入图像(比如 224×224×3)变换到低维空间。
- 类比:工厂的安检门,先把原材料(图像)统一规格。
- 主体(4 个 Stage)
- 整个网络分成 4 个 stage,每个 stage 包含多个 ResNet 风格的残差块。
- 每个 stage 的分辨率逐渐减小(图像越来越小),通道数逐渐增大(特征越来越多)。
- 每个 stage 的通道数(宽度)和层数(深度)都遵循 线性规律。
- 通道数 w(i) ≈ w₀ + k·i
- i 表示层数索引
- w₀ 是起始通道数,k 是增长速率
📌 类比:
想象修一条高速公路:
- 开头车道数少(起始通道少)。
- 越往后越加宽(通道数逐渐增加)。
- 加宽的规律不是乱来的,而是严格按照一个斜率(k)慢慢增加。
- 分类头(Head)
- 全局平均池化 (GAP)
- 全连接层 (FC)
- Softmax 输出类别
类比:流水线的最后“质检+打包+出厂”。
(3)模块(Block)设计
- RegNet 的每个 block 和 ResNet 很像:1×1 卷积 + 3×3 卷积 + 1×1 卷积 + 残差连接。
- 这保证了它继承了 ResNet 的稳定性。
- 不同的是,每个 block 的通道数由线性函数控制,所以整个网络更规则。
3、与 Transformer 的结合(ConvNeXt, 2022)
- ConvNeXt:Facebook/Meta 提出的现代卷积网络,直接受到 RegNet 启发。
- ConvNeXt 研究者说:
- “既然 RegNet 发现卷积网络有简单规律,那我们能不能把它推向极致,对标 Vision Transformer?”
- 于是,他们把 RegNet 风格的卷积网络现代化改造:
- 大卷积核(7×7)
- LayerNorm 替代 BN
- 更简洁的 block 设计
- 效果:在 ImageNet 上和 ViT 打平,证明卷积依旧强大。
📌 类比:
RegNet 是总结了一本“修路手册”;
ConvNeXt 就是用这本手册,把公路升级成了高速高铁,跟 Transformer 公路竞争。