当前位置: 首页 > news >正文

网站标题和描述优化网站建设字体

网站标题和描述优化,网站建设字体,西城富阳网站建设,上海网站推广Transformer基础—自注意力机制 当我们处理文本、语音这类序列数据时,总会遇到一个老问题:模型到底该怎么理解“前后文”呢? RNN 和 LSTM 曾经是热门的答案,它们沿着时间顺序一点点地读数据,但读得太慢,还容…

Transformer基础—自注意力机制

当我们处理文本、语音这类序列数据时,总会遇到一个老问题:模型到底该怎么理解“前后文”呢?
RNN 和 LSTM 曾经是热门的答案,它们沿着时间顺序一点点地读数据,但读得太慢,还容易忘记前面的信息。后来 CNN 被搬了进来,靠卷积核抓住局部模式,可要想看远处的信息,就得堆一大堆层,效率也不高。
于是研究者开始换个思路:如果模型能直接跳过中间环节,把注意力放到序列中真正相关的位置,不是更聪明吗? 这就是注意力机制的出发点。而当这种机制被应用到同一个序列内部时,就诞生了今天大名鼎鼎的——自注意力机制(Self-Attention)

一、基本概念

什么是自注意力机制?

自注意力机制就是找到序列当前词与序列所有词之间的关系,也就是说我们的模型要知道这个词“是谁”、“在哪”。

当我们说“模型要知道这个词是谁、在哪、该关注谁”时,其实就需要一种可计算的方式来衡量词和词之间的关系。

这时候就引出了自注意力的三大主角:Q(查询向量:Query)、K(键向量:Key)、V(值向量:Value)

我们知道:在传统的 RNN 模型里,每个词都会被转化成一个 词向量(Embedding),这个向量基本上就代表了“这个词是谁”。RNN 会把这些向量按照顺序依次读入,再结合隐状态去理解上下文。
但在自注意力机制中,研究者觉得:光有一个词向量还不够。如果我们想让模型判断“这个词应该关注谁”,就得从不同角度去看待它。

于是,同一个词的词向量会被投影成三份不同的表示:

  • Q(Query):我去发起“提问”,看看我应该关心哪些词;
  • K(Key):我拿出自己的“身份标签”,告诉别人“我是什么”;
  • V(Value):我还准备了一份“内容”,如果有人关注我,就把这份内容贡献出来。

这样一来,词嵌入不再只是一个“静态身份”,而是被拆解成查询、标识和内容三种角色,从而让模型能够灵活地建立联系。

我们能够理解为:我们将一个词最开始的一个词向量进行了三次线性变换(也就是乘上三个不同的矩阵),得到的结果就是Q、K、V,他们都是这个这个词得词向量。

虽然一个词从最开始的一个词向量变为了三个词向量,但是这三个词向量仅仅只是表示这一个词,没有和上下文建立联系,那么我们是如何实现上下文联系的呢?

二、实现过程

1.计算注意力得分

我们将序列当前词的Q向量与序列任何一个词的K向量做点积,得到的这个值能够作为当前词与另外一个词的相似度判断依据,值越大,说明这两个词越相似,但是数值可能会过大,所以需要引入一个缩放因子限制数值大小,使得梯度能够稳定更新。因此就有了注意力得分矩阵公式:
Attention(Q,K)=QKTdk \text{Attention}(Q, K) = \frac{QK^T}{\sqrt{d_k}} Attention(Q,K)=dkQKT
这个矩阵的形状为n×nn\times nn×n,其中n表示的是序列的长度,矩阵中的元素(i,j)(i,j)(i,j)表示序列第iii个元素与第jjj个元素的注意力得分,也就是它们的相似度。

图示:

在这里插入图片描述
得到QKV向量
在这里插入图片描述
计算第一个词和序列中所有词的每个注意力得分α1,i=q1⋅kidk\alpha_{1,i} = \frac{q^1 \cdot k^i}{\sqrt{d_k}}α1,i=dkq1ki

2.归一化

我们要将得到的注意力得分转换为概率分布,即将值得范围控制在[0,1]之间,这个想法我们可以通过softmaxsoftmaxsoftmax函数得到实现,并且它确保了每一行的权重和为1,也就是一个词对于序列所有词的注意力权重之和为1。(注意:计算注意力得分和权重的时候,包括词自己本身,也就是用某个词的Q向量去乘上自己的V向量
Attention Weight=softmax(QKTdk) \text{Attention Weight} = \text{softmax} \left( \frac{QK^T}{\sqrt{d_k}} \right) Attention Weight=softmax(dkQKT)

3.加权求和

得到了每个词对于序列的注意力权重矩阵之后,接下来就是与V矩阵进行相乘,进行加权求和,最终得到的就是带有上下文联系的词向量。
Output=Attention Weight×V=softmax(QKTdk)×V \text{Output} =\text{Attention Weight} \times V = \text{softmax} \left( \frac{QK^T}{\sqrt{d_k}} \right) \times V Output=Attention Weight×V=softmax(dkQKT)×V
计算图示意:

在这里插入图片描述
QK计算相似度后,经 softmaxsoftmaxsoftmax 得到注意力,再乘V,最后相加得到包含注意力的输出

三、多头注意力

现在我们已经知道了什么是自注意力机制,那么接下来介绍以下自注意力机制的拓展,也就是transformer所真正运用到的注意力机制——多头注意力机制

多头注意力机制顾名思义,将注意力机制中的Q、K、VQ、K、VQKV向量分成了多个“头”,也就是分成了nnn个组,每个组算出各自的注意力结果,然后将每组的输出进行拼接,最后再通过线性变换(乘上一个权重矩阵做特征融合)得到最终的输出。

【这种思路类似于CNN中的分组卷积】

比如将一个512维度的词分为2个组(也就是两个头),那么每组QKV向量的维度就应该是256维度,一共有两组QKV。

在这里插入图片描述
aia^iaiaja^jaj为两个不同的词,他们分别有两组QKV向量

多头注意力的目的

总的来说,多头注意力的目的就是为了提高模型的表达能力。我们可以用多组注意力去关注这个词的不同特征,比如一个词有32组注意力,那么一组可以是表示这个词的情感特征、一组表示这个词的词法特征、一组表示这个词的词性特征等等…

这就让我们的模型学习到了更多的上下文信息,能够在不同场景下表达合适的意思,也就是更有语境。

PyTorch封装好的多头注意力层nn.MultiheadAttention

import torch
import torch.nn as nnmultihead_atten_layer = nn.MultiheadAttention(embed_dim=512,num_heads=8,batch_first=True
)
embedding_layer = nn.Embedding(10, 512)
X = torch.randint(0, 10, (1, 10))X = embedding_layer(X)atten_out, atten_weights = multihead_atten_layer(# 内部自动用可学习的 W^Q, W^K, W^V 把 X 投影成 QKVquery=X,key=X,value=X,
)# 打印注意力得分以及权重矩阵
print(atten_out.shape, atten_weights.shape)# torch.Size([1, 10, 512]) torch.Size([1, 10, 10])

以上是博主对transformer注意力机制的一些总结笔记,若文章中出现错误请及时指正博主,感谢浏览☆噜~☆

http://www.dtcms.com/a/493450.html

相关文章:

  • 诚通凯胜生态建设有限公司网站php建站软件
  • app与微网站的区别是什么意思好用app制作
  • php 英文网站模板响应式网站开发要注意哪些
  • 怎么知道网站的空间是谁做的彩票网站开发违法
  • 自助健站大同推广型网站建设
  • 合肥瑶海区网站建设费用网络营销的常见方式有哪些
  • asp购物网站客户查看购物车网络推广哪个平台最好
  • 中国建设教育协会培训中心网站网站备案拍照 广州
  • 黄石手机网站建设源代码网站和模板做的区别
  • 广州网站外贸推广全国家装官网
  • 台州做网站需要多少钱yum nginx wordpress
  • 用vs做网站 怎么安装百度蜘蛛抓取新网站
  • 黄页网站 phpwordpress工单插件
  • 介绍几个能进去的a站深圳网站建设多少钱
  • 写作网站挣钱对比网页设计与制作教程第三版张兵义
  • 网站开发进度在什么网站做公司人员增减
  • 网页和网站区别是什么免费海外网络连接器
  • 厦门网页建站申请比较好wordpress 右侧广告
  • 专业html5网站建设临沂建设局网站
  • 上海建设网站的网站电子商务网站的功能
  • 微机课做网站网站建设常出现的问题
  • 珠海移动网站定制福建亨立建设集团有限公司网站
  • 网站制作在哪里比较好佛山百度网站排名优化
  • 能发布自做的视频网站类似淘宝网站模板
  • 网页制作与网站建设技术大全pdf站长 网站对比
  • 网站建设外文版要求网站建设社区
  • 企业网站建设财务规划wordpress自己的网页
  • 中国建设银行网站官网网址手机做ppt的软件免费
  • 如何发布自己的广告苏州网站优化维护
  • 上街区网站建设网站建设管理条例