当前位置: 首页 > wzjs >正文

浙江建站优化品牌搜索引擎排名优化包括哪些方面

浙江建站优化品牌,搜索引擎排名优化包括哪些方面,北京出大大事了,福步外贸论坛网官网文章目录 前言一、Encoder二、Decoder流程流程1 embedding流程2 注意力机制1.注意力机制:multi-self attention2.ADD NORM3.FNN:前向反馈神经网络层流程3 decoder第一个Mluti-head attention第二个Mluti-head attention交叉注意力机制softmax 预测输出单词Transformer 总结一个…

文章目录

  • 前言
  • 一、Encoder
  • 二、Decoder
  • 流程
      • 流程1 embedding
      • 流程2 注意力机制
          • 1.注意力机制:
          • multi-self attention
          • 2.ADD NORM
          • 3.FNN:前向反馈神经网络层
      • 流程3 decoder
        • 第一个Mluti-head attention
        • 第二个Mluti-head attention
          • 交叉注意力机制
        • softmax 预测输出单词
      • Transformer 总结
      • 一个生成翻译任务的训练和验证流程
        • 一:训练阶段:
          • teach forcing
        • 二:验证推理部分
        • 训练与验证的差异
      • teach force 与自回归生成的区别
        • 翻译实例
        • 常见问题回答


前言

transformer是大模型的基础,由encoder和decoder组成,
以翻译任务为例,输入一句话经过transformer生成其翻译内容。
实际应用中,都是由多个encoder和多个decoder构成编码器和解码器

一、Encoder

每个encoder实际上是由两个层构成,第一层是自注意力层,第二层是FFN前馈网络层。编码器的输入会先流经自注意力层,它可以让编码器在对特定词编码时使用输入句子中其他的信息。可以理解成翻译一个词的时候,不仅关注当前词而且还会关注其他词的信息。

二、Decoder

每个解码器有三层,除了self-attention层(mask的)和FNN外,还有Encoder-Decoder Attention层,该层用于帮助解码器关注输入句子的相关部分的。

流程

1.一般我们在处理NLP问题时,都要先把它变成在空间上可以计算的向量,即通过embedding词嵌入的形式。而词嵌入只发生在最底层的编码器中,即最下面的编码器接受的是词嵌入向量embedding,其他编码器接收的是下层编码器的输出。
2.每层encoder会将接收到的向量先经过self-attention再经过FNN后输出给下一个编码器。
在这里插入图片描述
输入的句子的embedding向量表示和每个词位置的向量表示相加得到可以输入进transformer模型中的矩阵X,输出编码信息矩阵C,C大小为(n*d),n是单词个数(5),d是embedding所转换为的维度(如768,512等等)即提取的特征,C后续会用到Decoder中。
3.注:decoder翻译时,依次会根据当前翻译过的单词1~i翻译下一个单词i+1,如下图所示。在使用过程中,翻译到单词i+1的时候需要通过Mask掩盖i+1后面的单词,第i+1个单词时不能用它后面的单词信息,只能用它本身及i+1之前的单词信息,因为后面的信息被mask了,由于decoder的mask-selfattention层会防止解码器在生成时“看到”未来信息,只能利用前面出现过的进行计算。
下图 Decoder 接收了 Encoder 的编码矩阵 C,然后首先输入一个翻译开始符 “”,预测第一个单词 “I”;然后输入翻译开始符 “” 和单词 “I”,预测单词 “have”,以此类推。这是 Transformer 使用时候的大致流程,接下来是里面各个部分的细节。
在这里插入图片描述

流程1 embedding

单词的embedding有经典的方法:word2vec,可以将词转换成空间维度中相同维度的向量。与bert的词embedding相同
Transformer 中使用位置 Embedding 保存单词在序列中的相对或绝对位置
通过训练或利用公式生成,与bert的位置编码方式不同
在这里插入图片描述

二者相加得到transformer的输入矩阵x

流程2 注意力机制

红色圈中的部分为 Multi-Head Attention,是由多个 Self-Attention组成的,可以看到 Encoder block 包含一个 Multi-Head Attention,而 Decoder block 包含两个 Multi-Head Attention (其中有一个用到 Masked)。Multi-Head Attention 上方还包括一个 Add & Norm 层,Add 表示残差连接 (Residual Connection) 用于防止网络退化,Norm 表示 Layer Normalization,用于对每一层的激活值进行归一化。
在这里插入图片描述

1.注意力机制:

在计算的时候需要用到矩阵Q(查询),K(键值),V(值)。在实际中,Self-Attention 接收的是输入(单词的表示向量x组成的矩阵X) 或者上一个 Encoder block 的输出。而Q,K,V正是通过 Self-Attention 的输入进行线性变换得到的。
Q、K、V 是通过输入与可学习的权重矩阵Wq,Wk,Wv计算得到的,模型会根据任务目标(如分类、生成等)调整这些权重,从而提取有用的特征。而权重矩阵(如 Q、K、V 的权重矩阵)的初始化是随机的,但它们的值并不是固定的,而是会在训练过程中通过梯度下降等优化算法不断更新,最终学习到适合任务的值。
Self-Attention 的输入用矩

http://www.dtcms.com/wzjs/270412.html

相关文章:

  • 网站开发需要哪些人游戏优化是什么意思
  • 推荐一些b2b网站seo深圳优化
  • 做企业网站需要人维护么广州seo顾问
  • 青岛网站关键字优化湖南专业关键词优化服务水平
  • 徐州营销网站建设报价网站优化包括对什么优化
  • 网站做的相似重庆seo是什么
  • 智慧景区网站服务建设最新一周新闻
  • 学做衣服上什么网站谷歌推广开户多少费用
  • 网站怎么做长尾关键词网站推广策划思路的内容
  • 个人网页制作素材图片seo软件定制
  • 有了域名如何做网站搜索引擎关键词竞价排名
  • wordpress去除category西安优化外包
  • 做不了大流量网站自己做网站难吗
  • 刷网站建设互联网下的网络营销
  • 网站建设工作分解结构词典脚本外链平台
  • 电子商务网站管理的基本内容网络营销软件排行
  • 景区网站建设的好处青岛网站排名提升
  • 做动态的网站适合发表个人文章的平台
  • 展会网站建设搜狗网站收录入口
  • 新闻标题做的好的网站aso应用优化
  • 防邪办网站建设方案文档服务器域名怎么注册
  • 免费咨询大夫长沙网站seo优化排名
  • 网络公司做网站的合同网站维护
  • 自己制作网站需要什么软文写作范文500字
  • 东城东莞网站建设宁波网站推广哪家公司好
  • 怎样建设网站赚钱国外网站制作
  • 案例网站模板_案例网爱站网挖掘关键词
  • 外贸网站建设公司服务aso排名服务公司
  • 外贸英语学习网站提高网站排名
  • 网站建设成本报表app广告联盟