当前位置: 首页 > news >正文

各类神经网络学习:(五)LSTM 长短期记忆(上集),结构详解

上一篇下一篇
RNN(下集)待编写

LSTM(长短期记忆)

参考知乎文章《人人都能看懂的LSTM介绍及反向传播算法推导(非常详细) - 知乎》,部分图片也进行了引用。

参考视频教程《3.结合例子理解LSTM_哔哩哔哩_bilibili》,举的例子还是比较贴切的。不过反向传播的完整推导,非必要不用深入看。

一、相关知识早知道

  • ————————————————该模型提出的原因是为了解决什么问题的?———————————————

    答:为了解决 R N N RNN RNN

    • 梯度爆炸和梯度消失问题 (尽管激活函数 t a n h tanh tanh 已经在一定程度上缓解了梯度消失和梯度爆炸,但是当连乘次数过多时,依然会有此问题)。
    • 长期依赖捕捉困难问题 R N N RNN RNN 的隐藏状态仅能保留短期历史信息,难以建模长序列中的复杂依赖)。
    • 信息筛选问题 R N N RNN RNN 对历史信息是全部接收的,但是无法筛选出历史信息中真正有用的内容,间接导致了前两个问题)。

  • ————————————为什么 L S T M \pmb{LSTM} LSTM 相较于 R N N \pmb{RNN} RNN 能缓解梯度爆炸和梯度消失?———————————

    答:首先梯度存在于反向传播中。 R N N RNN RNN 的前向传播是连乘式结构,这就导致其反向传播也是连乘式结构,在反向传播过程中, R N N RNN RNN 的梯度要么始终大于 1 1 1 ,要么始终小于 1 1 1 ,连乘时便会轻而易举地引起梯度爆炸和梯度消失(是针对较远时间步的梯度来说)。而在 L S T M LSTM LSTM 中,由于其独特的多门结构,可以使得导数值可以在 1 1 1 上下浮动(上一时间步的梯度大于 1 1 1 ,下一时刻的梯度也可能小于 1 1 1 ,连乘时就不至于过大或过小)。并且通过对多个门结构参数的学习,可以实现信息筛选,来决定何时让梯度消失,何时保持梯度(也就是所谓的梯度截断)。


  • ———————————————————— L S T M \pmb{LSTM} LSTM 的缺点有哪些?———————————————————

    答:尽管 L S T M LSTM LSTM 显著优于 R N N RNN RNN ,但仍存在以下问题:

    • 计算复杂度高 :三个门控结构引入更多参数,训练耗时较长。
    • 长序列性能衰减 :处理极长序列(如数万步)时仍可能出现记忆衰退。
    • 超参数敏感 :初始化策略和门控权重需精细调优,否则易导致训练不稳定。
    • 参数多,容易造成过拟合
    • 无法并行计算 :每个时间步需依赖前序结果,影响处理效率(后续的 T r a n s f o r m e r Transformer Transformer 解决了这个问题)。
    • 可解释性 一直是个难点,简单来说就是很难完全说清楚为什么内部结构这样设计,内部结构复杂使其决策逻辑难以被直观解释。

二、结构图

对比传统 R N N RNN RNN L S T M LSTM LSTM 的突出特点是多了个记忆细胞,能选择性地保留之前和当下的语义信息。

1)整体结构图

在这里插入图片描述

L S T M LSTM LSTM 网络中的 σ \sigma σ 就是 s i g m o i d sigmoid sigmoid 函数。它在这里也被叫做 “门单元” ,因为 s i g m o i d sigmoid sigmoid 函数的值为 [ 0 , 1 ] [0,1] [0,1] ,类似阀门,开的口大进的就多,开的口小进的就少。

2)单个时刻结构图

在这里插入图片描述

其内部包含四个网络层(其中三个门单元,带 σ \sigma σ 的就是门),分别是:遗忘门、更新门、细胞状态更新层、输出门。

后续符号提示: ⊙ ⊙ (向量或矩阵的对应元素相乘)。

x t \large x_t xt 尺寸为 m × 1 m×1 m×1 h t − 1 \large h_{t-1} ht1 尺寸为 n × 1 n×1 n×1 ,则 C t − 1 C_{t-1} Ct1 尺寸为 n × 1 n×1 n×1

①遗忘门:

在这里插入图片描述

公式:
f t = σ ( W h f ⋅ h t − 1 + W x f ⋅ x t + b f ) = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) \large f_t=\sigma(W_{hf}·h_{t-1}+W_{xf}·x_t+b_f)=\sigma(W_f·[h_{t-1},x_t]+b_f) ft=σ(Whfht1+Wxfxt+bf)=σ(Wf[ht1,xt]+bf)
f t \large f_t ft :我叫它 “遗忘矩阵” ,由 x t \large x_t xt h t − 1 \large h_{t-1} ht1 计算而来, σ \large \sigma σ 函数使 f t \large f_t ft 的元素处于 0 ∼ 1 0\sim1 01 ,使其对 C t − 1 \large C_{t-1} Ct1 具有遗忘功能, 1 1 1 表示 “完全接受”, 0 0 0 表示 “完全忽略”。 f t \large f_t ft 的尺寸和 h t − 1 \large h_{t-1} ht1 C t − 1 \large C_{t-1} Ct1 一样,同为 n × 1 n×1 n×1 ------------------------则可推出参数 W h f \large W_{hf} Whf 尺寸为 n × n n×n n×n W x f \large W_{xf} Wxf 尺寸为 n × m n×m n×m b f \large b_{f} bf 尺寸为 n × 1 n×1 n×1

②输入门:

在这里插入图片描述

公式:
i t = σ ( W h i ⋅ h t − 1 + W x i ⋅ x t + b i ) = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) C t ~ = t a n h ( W h C ⋅ h t − 1 + W x C ⋅ x t + b C ) = t a n h ( W C ⋅ [ h t − 1 , x t ] + b C ) \large i_t=\sigma(W_{hi}·h_{t-1}+W_{xi}·x_t+b_i)=\sigma(W_i·[h_{t-1},x_t]+b_i)\\ \large \tilde{C_t}=tanh(W_{hC}·h_{t-1}+W_{xC}·x_t+b_C)=tanh(W_C·[h_{t-1},x_t]+b_C) it=σ(Whiht1+Wxixt+bi)=σ(Wi[ht1,xt]+bi)Ct~=tanh(WhCht1+WxCxt+bC)=tanh(WC[ht1,xt]+bC)
这里的 C t ~ \large \tilde{C_t} Ct~ 代表的是此时刻生成的新记忆,只不过是初始版。

这里的 i t \large i_t it :我叫它 “新记忆筛选矩阵” , 元素均处于 0 ∼ 1 0\sim1 01 ,使其对 C t ~ \large \tilde{C_t} Ct~ 具有筛选功能, 1 1 1 表示 “完全通过”, 0 0 0 表示 “完全忽略”。

i t \large i_t it 的尺寸为 n × 1 n×1 n×1 C t ~ \large \tilde{C_t} Ct~ 的尺寸为 n × 1 n×1 n×1 ------------------------则可推出参数 W h i 、 W h C \large W_{hi}、W_{hC} WhiWhC 尺寸为 n × n n×n n×n W x i 、 W x C \large W_{xi}、W_{xC} WxiWxC 尺寸为 n × m n×m n×m b i 、 b C \large b_{i}、b_{C} bibC 尺寸为 n × 1 n×1 n×1

③细胞状态更新

在这里插入图片描述

公式:
C t = f t ⊙ C t − 1 + i t ⊙ C t ~ \large C_t=f_t⊙C_{t-1}+i_t⊙\tilde{C_t} Ct=ftCt1+itCt~
这里的 C t \large C_t Ct 便是最终要输出的新记忆。

新记忆由经过遗忘的旧记忆,以及经过筛选的原始新记忆,相加而得到。

C t \large C_t Ct 的尺寸为 n × 1 n×1 n×1

④输出门:

在这里插入图片描述

公式:
o t = σ ( W h o ⋅ h t − 1 + W x o ⋅ x t + b o ) = σ ( W o ⋅ [ h t − 1 , x t ] + b o ) h t = o t ⊙ t a n h ( C t ) \large o_t=\sigma(W_{ho}·h_{t-1}+W_{xo}·x_t+b_o)=\sigma(W_o·[h_{t-1},x_t]+b_o)\\ \large h_t=o_t⊙tanh(C_t) ot=σ(Whoht1+Wxoxt+bo)=σ(Wo[ht1,xt]+bo)ht=ottanh(Ct)
这里的 h t h_t ht 便是隐层状态输出,由新记忆 C t \large C_t Ct 通过 t a n h tanh tanh 函数调整到 − 1 ∼ 1 -1\sim1 11 之间,再与 o t o_t ot 逐元素相乘得到。

这里的 o t o_t ot :我叫它 “隐层状态输出提炼矩阵” ,元素均处于 0 ∼ 1 0\sim1 01 ,使其对 C t \large C_t Ct 具有提炼功能, 1 1 1 表示 “完全通过”, 0 0 0 表示 “完全忽略”。

C t \large C_t Ct 中提炼出 h t h_t ht ,是因为细胞状态 C t \large C_t Ct 存储了经过遗忘门和输入门筛选后的所有长期信息(如历史趋势或主题),但并非所有内容都需直接传送给后续网络,通过提炼,仅保留与当前任务相关的部分。并且经过 t a n h tanh tanh 函数压缩之后,可以避免数值爆炸,并增强非线性表达能力。

3)单个时刻公式图

在这里插入图片描述

在这里插入图片描述

4)补充:

传统 R N N RNN RNN 的同步多对多结构图:

在这里插入图片描述

三、损失函数及反向传播

想要深入研究的,就参考知乎那篇文章,以及视频的最后一个分集(可以稍稍看看矩阵求导,对反向传播的计算有帮助)。

只是想用的,知道使用的是链式法则、梯度下降法即可。


相关文章:

  • 01 设计模式和设计原则
  • AI 在测试中的应用:从自动化到智能化的未来
  • Ubuntu下UEFI安全启动安装Nvdia驱动
  • JavaScript Fetch API
  • el-table + el-pagination 前端实现分页操作
  • secp256k1的模数P是如何选择的?
  • Java反射机制详解:原理、应用与最佳实践
  • Python内存管理探秘:让程序轻盈如羽的底层艺术
  • 畅享Mac桌面版TikTok!
  • 70. Linux驱动开发与裸机开发区别,字符设备驱动开发
  • 服务器中防火墙的重要性
  • 上门家政小程序实战,从0到1解决方案
  • 学习本地部署DeepSeek的过程(基于LM Studio)
  • 调用通义千问实现语音合成并将合成的音频通过扬声器播放
  • Transformer 通关秘籍2:利用 BERT 将文本 token 化
  • 【悲观锁和乐观锁有什么区别】以及在Spring Boot、MybatisPlus、PostgreSql中使用
  • 简历含金量的描述和注意事项!
  • 如何用Redis统计网站的UV
  • 影刀魔法指令3.0:开启自动化新篇章
  • 计算机视觉3——模板匹配与拟合
  • 体坛联播|欧冠半决赛阿森纳主场不敌巴黎,北京男篮险胜山西
  • 我国成功发射卫星互联网低轨卫星
  • 上海出台灵活就业人员公积金新政:不限户籍、提取自由,6月起施行
  • 百岁太极拳大师、陈氏太极拳第十一代嫡宗传人陈全忠逝世
  • 清华成立人工智能医院,将构建“AI+医疗+教育+科研”闭环
  • 习近平在中共中央政治局第二十次集体学习时强调,坚持自立自强,突出应用导向,推动人工智能健康有序发展