当前位置: 首页 > wzjs >正文

icp备案查询网站淘宝付费推广有几种方式

icp备案查询网站,淘宝付费推广有几种方式,python做简单的网站,焦作网站建设公司🍨 本文为🔗365天深度学习训练营 中的学习记录博客🍖 原作者:K同学啊 目标 具体实现 (一)环境 语言环境:Python 3.10 编 译 器: PyCharm 框 架: pytorch (二)具体步骤…
  • 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
  • 🍖 原作者:K同学啊

目标

具体实现

(一)环境

语言环境:Python 3.10
编 译 器: PyCharm
框 架: pytorch

(二)具体步骤
1. 什么是LSTM

LSTM(Long Short-Term Memory,长短期记忆网络)是一种特殊的循环神经网络(RNN),专门设计来解决传统RNN在处理长序列时遇到的梯度消失问题。

📖 LSTM的发展背景

传统RNN在处理长序列时面临两个主要问题:

  • 梯度消失:随着序列长度增加,早期信息的梯度会急剧衰减
  • 梯度爆炸:梯度可能变得过大,导致训练不稳定
    LSTM通过引入"门控机制"和"细胞状态"来解决这些问题。

🔧 LSTM的核心组件

LSTM单元包含三个门和一个细胞状态:

1. 遗忘门(Forget Gate)

f_t = σ(W_f · [h_{t-1}, x_t] + b_f)
  • 作用:决定从细胞状态中丢弃什么信息
  • 输出:0到1之间的值,0表示完全遗忘,1表示完全保留

2. 输入门(Input Gate)

i_t = σ(W_i · [h_{t-1}, x_t] + b_i)
C̃_t = tanh(W_C · [h_{t-1}, x_t] + b_C)
  • 作用:决定什么新信息被存储在细胞状态中
  • 两部分:决定更新什么值 + 创建候选值

3. 输出门(Output Gate)

o_t = σ(W_o · [h_{t-1}, x_t] + b_o)
h_t = o_t * tanh(C_t)
  • 作用:决定输出什么部分的细胞状态

4. 细胞状态(Cell State)

C_t = f_t * C_{t-1} + i_t * C̃_t
  • 作用:LSTM的"记忆",信息可以在其中流动

🎯 LSTM的工作流程

让我用一个形象的比喻来解释:
想象LSTM是一个智能的信息管理系统

  1. 遗忘门像一个"删除键",决定删除哪些过时信息
  2. 输入门像一个"筛选器",决定接收哪些新信息
  3. 细胞状态像一个"主内存",存储重要信息
  4. 输出门像一个"发布器",决定输出什么信息

📊 LSTM vs 传统RNN对比

特征传统RNNLSTM
记忆能力短期记忆长短期记忆
梯度问题梯度消失严重有效缓解
参数数量较少较多(约4倍)
训练复杂度简单复杂
长序列处理困难擅长
2. 网络结构
import torch  
import torch.nn as nn  class SimpleLSTM(nn.Module):  def __init__(self, input_size, hidden_size, num_layers, output_size):  """  类初始化  :param input_size: 每个时间步的输入特征维度  :param hidden_size:  LSTM隐藏状态的维度,也决定了LSTM内部门控单元的大小  :param num_layers: LSTM的层数  :param output_size: 最终输出的维度  """        super(SimpleLSTM, self).__init__()  # 定义LSTM层  # 其中batch_first=True:指定输入张量的格式为(batch_size, seq_len, input_size)  # 如果不设置,默认格式是(seq_len, batch_size, input_size)  self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True)  # 定义一个线性层,将LSTM输出映射到期望的输出维度  self.fc = nn.Linear(hidden_size, output_size)  def forward(self, x):  # LSTMn层的前向传播,默认返回output和(hidden, cell_state)  # lstm_out:shape(batch_size, seq_len, hidden_size)        # hn:最终的隐藏状态,形状为(num_layers, batch_size, hidden_size)  # cn:最终的记忆状态,形状为(num_layers, batch_size, hidden_size)与hn相同  lstm_out, (hn, cn) = self.lstm(x)  # 取最后一个时间步输出  lstm_out = lstm_out[:, -1, :]  # 通过全连接层将LSTM输出映射到输出维度  output = self.fc(lstm_out)  return output  # 参数设置  
input_size = 10 # 输入特征的维度  
hidden_size = 20 # LSTM隐藏层的维度  
num_layers = 2 # LSTM的层数  
output_size = 1 #  输出的维度  # 创建模型实例  
model = SimpleLSTM(input_size, hidden_size, num_layers, output_size)  # 打印模型结构  
print(model)  # 示例输入(batch_size, seq_len, input_size)  
x = torch.randn(5, 15, input_size)  # 本例相当于(5, 15, 10)  # 前向传播  
output = model(x)  
# 计算过程如下:  
# 1. 输入:(5, 15, 10)  
# 2. LSTM处理:(5, 15, 10) -> (5, 15, 20)  
# 3. 取最后的时间步: (5, 15, 20) -> (5, 20)  
# 4. 全连接层:(5, 20) -> (5, 1)  # 输出结果  
print("输入shape为:", x.shape)  
print("输出shape为:", output.shape)

image.png

(三)总结
LSTM的典型应用
1. 自然语言处理
  • 机器翻译
  • 情感分析
  • 文本生成
2. 时间序列预测
  • 股票价格预测
  • 天气预报
  • 销售预测
3. 语音识别
  • 语音到文本转换
  • 语音合成
4. 其他序列任务
  • 视频分析
  • 生物序列分析
  • 异常检测
http://www.dtcms.com/wzjs/2098.html

相关文章:

  • 霞浦县网站seo优化排名搜索引擎的优化方法有哪些
  • 建筑施工企业中是应急救援领导关键词优化武汉
  • ipsw 是谁做的网站百度霸屏推广多少钱一个月
  • 学做淘宝客网站百度公司推广电话
  • 网站建设实验作业抖音seo是什么
  • 宁波建筑公司排名上海网站seo招聘
  • BC网站推广怎么做seo网络优化专员
  • ps做网站时画布宽度杭州网站推广优化
  • 博士后是否可以做网站负责人百家号权重查询站长工具
  • 工信部域名查询免费刷seo
  • 渝水区城乡建设局网站bt樱桃 磁力岛
  • 可以做网站的魔盒镇江seo快速排名
  • wordpress not found梅州seo
  • 江苏优质网站制作公司市场营销案例分析
  • 购买 做网站 客户注册平台
  • 医院网站建设联系方式无锡百度快速优化排名
  • 布吉做棋牌网站建设哪家技术好广州最新疫情通报
  • 电脑网站转手机版石家庄热搜
  • 网站不用域名可以吗seo站长优化工具
  • 中石油技术开发公司网站六六seo基础运营第三讲
  • 做网站客户要求分期软文编辑器
  • wordpress添加ga代码可靠的网站优化
  • 手机wap版网站制作网络推广好做吗?
  • 门户网站建设管理工作的意见福州seo建站
  • 拓者吧室内设计seo软件工具箱
  • 我做中医培训去哪个网站找学员适合发朋友圈的营销广告
  • 廊坊市网站建设百度指数在线查询前100
  • 重庆建设银行网站百度网站推广价格
  • 自己做网站卖东西犯法吗网络推广是什么职业
  • 招标网站上的信息可靠吗2345网址导航电脑版官网