当前位置: 首页 > wzjs >正文

购物类网站首页效果图国外vps

购物类网站首页效果图,国外vps,网站建设合同属于技术服务么,搜索引擎入口yandex声明: 本文基于哔站博主【Shusenwang】的视频课程【RNN模型及NLP应用】,结合自身的理解所作,旨在帮助大家了解学习NLP自然语言处理基础知识。配合着视频课程学习效果更佳。 材料来源:【Shusenwang】的视频课程【RNN模型及NLP应用…

声明:

       本文基于哔站博主【Shusenwang】的视频课程【RNN模型及NLP应用】,结合自身的理解所作,旨在帮助大家了解学习NLP自然语言处理基础知识。配合着视频课程学习效果更佳。

材料来源:【Shusenwang】的视频课程【RNN模型及NLP应用】

视频链接:RNN模型与NLP应用(8/9):Attention (注意力机制)_哔哩哔哩_bilibili


一、学习目标

1.掌握Attention注意力机制的基本逻辑

2.清楚Attention注意力机制的实际意义


二、注意力机制

(1)首先我们来回顾一下上节课我们学到的Sequence to Sequence模型:

Sequence to Sequence模型有一个编码器Encoder和一个解码器Decoder。

Encoder将原来的英语文本逐字记录,在最后一个状态向量h和传输带C中记录下整个英语子的信息。而最后一个状态向量h和传输带C,将会作为解码器Decoderde初始化状态向量,使得Decoder获取原英文文本的所有信息,然后Decoder就像是一个文本生成i器一样逐字生成的与文本。详细过程如图:

但是:Sequence to Sequence 模型有一个明显的缺陷,要是输入的句子很长,那么Encoder模型就有可能无法将输入的句子全部记忆下来,从而使得Encoder最后一个状态向量漏掉句子中的某些信息,那么Decoder就不能产生争取的翻译。

如果你拿Sequence to Sequence 模型来做机器翻译,那么你就会得到这样的一个图片:

横轴是输入信息长度

纵轴是BLUE score,BLUE score是评价机器翻译好坏的标准。BLUE越高说明机器翻译越准确。

如果【不用Attention】那么你得到的就是图中蓝色的线,随着翻译句子的长度增加,翻译准确度先升高再降低。

如果【用Attention】那么你就会得到图中红色曲线,翻译准确度会一直保持很高

(2)用Attention改进Seq2Seq模型

1.前提须知:

①用了Attention,Decoder每次更新状态的时候会再看一遍Encoder的所有状态,这样就不会遗忘。

②Attention还会告诉Decoder应该关注Encoder哪些状态

③Attention可以大幅提升准确率,但是计算量却很大

2.Attention+Seq2Seq

Weight: 𝛼i = align( 𝐡i , 𝐬0 ):

该公式计算Encoder第i个状态和Decoder当前状态的相关性,把结果记为𝛼i(即权重weight),Encoder有m个状态,是一共算出m个𝛼。𝛼i都是介于0到1之间的实数,所有𝛼之和为1。

3.如何计算Attention?:

【方法一】:

这里的v和W都是参数矩阵,需要从训练数据中获得。

【方法二】:这种方法更常用

【next】将对应的h与α相乘求加权平均,最终获得C0,我门吧C0称作Contect vector。

每一个C都会对应一个S。C0对应S0

更新状态S和C

这是S1的更新公式:

计算过程中需要前一个S0和前一个C0。

这是C1的更新公式:

计算过程中的αi与之前的αi不一样。

这里的αi是由所有h和Decoder当前状态S1相乘做加权平均得来的。

以此类推:

C2计算过程:

C3计算过程:

【特别注意】每一次计算过程中的αi与前一步计算的αi都不一样。

【思考】:在这个计算过程中有多少个αi?

假设Encoder计算了m个步骤,Decoder计算了t个步骤。那么全部权重α数量为mt。这个时间复杂度非常高。虽然Attention避免遗忘,大幅提高准确率,但是代价是巨大的计算。

4.Attention的实际意义

图中

上面一行代表Decoder的每一个状态向量,下面一行代表着Encoder的每一个状态向量

每条线代表着他们的对应相关性即权重α。线越粗代表权重关系很大,线越细代表权重关系很小。

以上图标黄的两个状态为例:法语zone和英语Area之间的线很粗,则说明二者之间相关性很大。这条线有很直观地解释——法语zone就是英语Area,所以这两个状态的相似度很高。

每当Decoder想要生成一个状态的时候都会看一遍Encoder的所有状态,这些权重α会告诉Deocder应该关注哪些地方。

三、总结

1.标准的Seq2Seq模型是根据当前状态来产生下一个状态

2.如果使用Attention,Decoder在产生下一个状态的时候会先看一遍Ecoder里所有的向量。

3.Attention会告诉Decoder应该重点关注Encoder的哪些状态

4.Attention可以大幅提升Seq2Seq模型的表现,但是要耗费大量的计算


文章转载自:

http://SnExLAo3.sLLpt.cn
http://FyJMNLHA.sLLpt.cn
http://3lTNmkE3.sLLpt.cn
http://qjBPhFuG.sLLpt.cn
http://5JlnfMlf.sLLpt.cn
http://hSvQzIZy.sLLpt.cn
http://NfjAgQrd.sLLpt.cn
http://MkLMbw7x.sLLpt.cn
http://1rtYC0fQ.sLLpt.cn
http://9xVWILMb.sLLpt.cn
http://8FaCEz0V.sLLpt.cn
http://stTrrLQp.sLLpt.cn
http://TXUiqC8J.sLLpt.cn
http://mnAuFQOw.sLLpt.cn
http://IY0FUl5q.sLLpt.cn
http://S8n7vCHC.sLLpt.cn
http://O7FML2iB.sLLpt.cn
http://pCfA6xhG.sLLpt.cn
http://7Xc783RZ.sLLpt.cn
http://p8QcpKaa.sLLpt.cn
http://IY8IE4xv.sLLpt.cn
http://RUG2ss5x.sLLpt.cn
http://biSoMXiv.sLLpt.cn
http://6yGlpS8a.sLLpt.cn
http://m739xY44.sLLpt.cn
http://JNCJx17I.sLLpt.cn
http://r07mL3gh.sLLpt.cn
http://8T2JvnDu.sLLpt.cn
http://6SfJYkqP.sLLpt.cn
http://bEC2nOmE.sLLpt.cn
http://www.dtcms.com/wzjs/633646.html

相关文章:

  • 丹东网站设计个人网站系统
  • 商城网站用html做无限次数视频app软件ios
  • 做美工用什么素材网站重庆巴南区网站建设
  • 网站响应式布局电子规划书商务网站建设
  • 苏州网站建设致宇学动漫设计好就业吗
  • 重庆专业网站建设免费行情软件下载大全
  • 安阳手机网站建设编程猫官方网站入口
  • 网站推广策略都有哪些免费虚拟机下载手机版
  • 网站备案流程及资料wordpress 显示字体大小
  • 企业网站页头背景图怎么做彩票游戏网站
  • 网站开发职业要求代申请可信网站
  • 网站上传发生一个ftp错误wordpress注册后需激活使用
  • 宝安做网站的新浪网页版入口
  • 湿地公园网站开发招标万网免费虚拟主机
  • 网站如何查看降权原因建设网站的网站公告是什么
  • wordpress 获取标题南京网站排名优化费用
  • dns修改国外网站秦皇岛网站搜索优化
  • 网站建设企业服务商全国文明城市创建知识问答
  • 英文公司网站建站优化
  • 阿里云一键建站网站怎么创造软件app
  • 常州网站关键词优化软件多用户wordpress主题
  • 北京网站软件制作网站制作高手
  • 网站建设的相关问题wordpress能制作视频网站吗
  • 怎么搭建mysql数据库网站中国建设监理协会网站会员专区
  • 与网站开发相关的书籍兰州兼职做网站
  • 网站开发学什么语言商城网站哪个公司做的好处
  • 智能小程序下载简述seo和sem的区别与联系
  • 揭阳网站制作教程网站建设内部问卷
  • 免费个人网页制作网站good设计网
  • 团购网站建设目的百度识图网页版在线