当前位置: 首页 > wzjs >正文

杭州战争网站建设做网页的

杭州战争网站建设,做网页的,网站推广需求要素,最近的国际新闻热点RNN Recurrent Models 如何解决不同长度文本向量的问题?(长文本) 取均值,但是容易淡化文本的独特性,比如一正一负的均值就变成了0. 有些情况取均值毫无意义,我出门玩,几个词的均值意义模糊。我…

RNN Recurrent Models

如何解决不同长度文本向量的问题?(长文本)

  • 取均值,但是容易淡化文本的独特性,比如一正一负的均值就变成了0. 有些情况取均值毫无意义,我出门玩,几个词的均值意义模糊。我爱你,你爱我,均值一样但是含义不一样。
  • 合并所有向量,但是是固定的一段长向量(N-dimension),如果只有一个词,则需要填充padding其他地方为0,如果是很多个词,则只能放弃后面的词,进行截断(Truncate)。会丢失信息。并且不同位置的词需要重新学习它的含义(代入了位置信息)。

RNN

为了解决这个问题,提出了RNN的概念 RNN-LSTM概述 <-跳转之前的博客。基于之前的概述,下面做一些补充。

在这里插入图片描述

python - Why is RNN no weigth between hidden and output? - Stack Overflow](https://i.sstatic.net/PcaGd.png)

  • h0 的初始化可以是全为0的矩阵,也可以是认为给定的权重矩阵

  • Wh 时间步长之间的权重是共享的,所以更新的时候会一起更新。 Wx(负责将输入
    xt转换为隐藏状态的表示),Wy(负责将隐藏状态 ht映射到输出层(例如分类任务的 logits) 不共享

  • RNN 有多种形式的输出, 也可以直接多任务,预测每个词的词性,预测情感,有多少个输出就会更新多少次权重
    在这里插入图片描述

The Unreasonable Effectiveness of Recurrent Neural Networks](https://karpathy.github.io/assets/rnn/diags.jpeg)

  • 存在的问题:
      1. 梯度爆炸Exploding gradients
        如果有一个非常陡的梯度,权重更新会跳到很远的地方,甚至溢出存储

    解决方法: clipping the gradient.梯度裁剪,使用min(gradient, k)进行限制。

      1. 梯度消失,gradient vanish
        RNN 通过 反向传播算法(Backpropagation Through Time, BPTT) 来更新权重,其中隐藏状态的梯度是 多个时间步的乘积。如果每一步的梯度小于 1,就会指数级衰减,最终变得接近 0。

    解决方法:不衰减的方法保存信息,使用LSTM

  • 通过RNN 隐藏层可视化可以得到结论:颜色渐变说明 RNN 的隐藏状态随着时间步的变化而改变,有些单词在序列中起到了更重要的作用。【Andrej Karpathy 的论文《The Unreasonable Effectiveness of Recurrent Neural Networks》(2015)】

RNN 变型

1. 双重RNN,输出当作另一个RNN的输入

在这里插入图片描述

Recurrent Neural Network (RNN) and LSTM | Data Platform and Data Science](https://dwbi1.wordpress.com/wp-content/uploads/2021/08/fig-2-rnn-architecture.jpg?w=422)

2. 双向递归神经网络(Bidirectional RNN, BiRNN)

Forward-Backward RNN(前向-后向 RNN)是一种 双向递归神经网络(Bidirectional RNN, BiRNN) 的结构,它通过 同时考虑前后时间步的信息 来提升对序列数据的理解能力,特别适用于 自然语言处理(NLP)语音识别(Speech Recognition) 等任务。

在这里插入图片描述

Bidirectional Recurrent Neural Network - GeeksforGeeks](https://media.geeksforgeeks.org/wp-content/uploads/20230302163012/Bidirectional-Recurrent-Neural-Network-2.png)

1. 为什么需要 Forward-Backward RNN?

普通的 单向 RNN 只能利用过去的信息,而无法考虑未来的信息。例如:

  • 语言建模中,单向 RNN 只能基于前面的单词预测下一个单词,而不能考虑后续的单词。
  • 语音识别中,单向 RNN 只能基于当前和之前的音素,而不能利用后续音素的信息。

解决方案:

  • 双向 RNN(BiRNN) 通过前向(Forward)和后向(Backward)两个方向的 RNN 结构,同时处理序列数据,并结合两个方向的信息,使得网络可以在当前时间步同时利用过去和未来的上下文信息

2. Forward-Backward RNN 的结构

BiRNN 由 两个独立的 RNN 组成

  1. Forward RNN(前向 RNN): 负责从 左到右 处理输入序列。
  2. Backward RNN(后向 RNN): 负责从 右到左 处理输入序列。
  3. 最终隐藏状态 由前向和后向 RNN 的隐藏状态拼接(concatenate)或加权合并而成。

文章转载自:

http://PsszD6Mt.fpjxs.cn
http://gEpNrH96.fpjxs.cn
http://buhBU1FP.fpjxs.cn
http://VyAVkCme.fpjxs.cn
http://KIqCTFDx.fpjxs.cn
http://1i10XVW3.fpjxs.cn
http://57VCWZKs.fpjxs.cn
http://ZCamBkoy.fpjxs.cn
http://wlCPjqqa.fpjxs.cn
http://CVjh0X29.fpjxs.cn
http://QsCCBEWY.fpjxs.cn
http://yeOKWCU5.fpjxs.cn
http://gNdpI4ct.fpjxs.cn
http://DIa7t1Fs.fpjxs.cn
http://cmS4sS74.fpjxs.cn
http://HzH7fkam.fpjxs.cn
http://EkQknbtD.fpjxs.cn
http://nS9hWK9t.fpjxs.cn
http://qtRjbLnq.fpjxs.cn
http://sdSTsyyZ.fpjxs.cn
http://25WTwS6E.fpjxs.cn
http://B6dnLkbr.fpjxs.cn
http://wP6EZ6G5.fpjxs.cn
http://rlCcISZm.fpjxs.cn
http://rNNsrQIE.fpjxs.cn
http://uwDPQIGd.fpjxs.cn
http://xavltYNa.fpjxs.cn
http://2pidClfj.fpjxs.cn
http://1ms6MQNW.fpjxs.cn
http://F8vpON4M.fpjxs.cn
http://www.dtcms.com/wzjs/664578.html

相关文章:

  • 第一百四十七章 做视频网站软件开发合同模板下载
  • 制作网站的公司叫什么wordpress 小工具区域
  • 那种导航网站mq网站开发
  • 国外优秀网站中国公路工程建设网站
  • 网站建设错误代码50019邯郸网站优化
  • 建设银行手机绑定网站南昌建筑工程公司
  • 摄影网站设计与制作网站cms系统下载
  • 学校网站开发文档长沙建设信息中心网站
  • 专业做动漫的网站景安wordpress主机
  • 北京工商局网站怎么做增资找代理产品上哪个平台
  • 免费网站建设联系电话seo网站页面优化包含
  • 网上做网站怎么防止被骗网站还在建设就已经可以访问了_影响后期百度
  • 班级网站建设模板下载网站建设及优化的策划书
  • 网络营销常用的工具有哪些seo工程师是什么职业
  • 和小孩做的网站网业升级坊问
  • pr效果做的好的网站有哪些wordpress 开发者
  • 销售 网站平面广告设计要学的软件
  • 网站建设维护合同书十堰微网站建设
  • 河南建设人才招聘专业网站建站平台在线提交表格
  • 云服务器有哪些seo优化工作内容
  • 青岛建站通如何创建网页链接
  • 网站策划技巧做一个网站建设
  • 昆山建设银行交学费的网站从零开始网站开发
  • 如何给网站做关键词优化建立手机网站
  • 菏泽住房和城乡建设厅网站网站建设指的是什么
  • 建站网址导航hao123建行生活网页版登录入口
  • 南网站建设网站建设推荐信息
  • 建设商城网站公司 百度百科东丽天津网站建设
  • 网站建设柒首先金手指1哈尔滨市建设工程交易网
  • 省示范院校建设网站知果果网站谁做的