当前位置: 首页 > wzjs >正文

神华集团两学一做登陆网站手机版谷歌浏览器入口

神华集团两学一做登陆网站,手机版谷歌浏览器入口,虚拟主机能做什么,dw制作网站模板Self-Attention(自注意力)详解 数据示例 Self-Attention(自注意力)是注意力机制的一种特殊形式,用于计算同一序列内部元素之间的相关性。它能够捕捉序列中任意两个元素的长距离依赖关系,广泛应用于Transf…

Self-Attention(自注意力)详解 + 数据示例

Self-Attention(自注意力)是注意力机制的一种特殊形式,用于计算同一序列内部元素之间的相关性。它能够捕捉序列中任意两个元素的长距离依赖关系,广泛应用于Transformer、BERT等模型。


1. Self-Attention 的计算步骤

假设我们有一个输入序列(如句子中的单词),每个单词用向量表示。Self-Attention 的计算过程如下:

输入数据示例

假设我们有 3 个单词的句子,每个单词用 4 维向量表示:

  • X(输入矩阵):
    [
    X = \begin{bmatrix}
    x_1 \ x_2 \ x_3
    \end{bmatrix} = \begin{bmatrix}
    1 & 0 & 1 & 0 \ 0 & 2 & 0 & 2 \ 1 & 1 & 1 & 1
    \end{bmatrix}
    ]
    • (x_1 = [1, 0, 1, 0])
    • (x_2 = [0, 2, 0, 2])
    • (x_3 = [1, 1, 1, 1])

Step 1: 计算 Query (Q), Key (K), Value (V)

Self-Attention 通过三个权重矩阵 (W^Q, W^K, W^V) 将输入 (X) 映射到 Query、Key、Value:
[
Q = X W^Q, \quad K = X W^K, \quad V = X W^V
]

假设:
[
W^Q = \begin{bmatrix}
1 & 0 & 1 \ 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 1 & 1
\end{bmatrix}, \quad
W^K = \begin{bmatrix}
0 & 1 & 1 \ 1 & 0 & 1 \ 0 & 1 & 0 \ 1 & 0 & 0
\end{bmatrix}, \quad
W^V = \begin{bmatrix}
0 & 0 & 1 \ 1 & 1 & 0 \ 0 & 1 & 0 \ 1 & 0 & 1
\end{bmatrix}
]

计算:
[
Q = X W^Q = \begin{bmatrix}
1 & 0 & 1 & 0 \ 0 & 2 & 0 & 2 \ 1 & 1 & 1 & 1
\end{bmatrix} \begin{bmatrix}
1 & 0 & 1 \ 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 1 & 1
\end{bmatrix} = \begin{bmatrix}
1 & 0 & 1 \ 2 & 2 & 2 \ 2 & 1 & 2
\end{bmatrix}
]
[
K = X W^K = \begin{bmatrix}
0 & 1 & 1 \ 4 & 0 & 2 \ 2 & 2 & 1
\end{bmatrix}, \quad
V = X W^V = \begin{bmatrix}
0 & 1 & 1 \ 2 & 2 & 2 \ 2 & 2 & 1
\end{bmatrix}
]

Step 2: 计算注意力分数(Attention Scores)

计算 (Q) 和 (K) 的点积,得到注意力分数矩阵:
[
\text{Scores} = Q K^T = \begin{bmatrix}
1 & 0 & 1 \ 2 & 2 & 2 \ 2 & 1 & 2
\end{bmatrix} \begin{bmatrix}
0 & 4 & 2 \ 1 & 0 & 2 \ 1 & 2 & 1
\end{bmatrix} = \begin{bmatrix}
1 & 2 & 3 \ 4 & 8 & 8 \ 3 & 6 & 7
\end{bmatrix}
]

Step 3: 缩放 + Softmax 归一化

为了防止点积过大,通常除以 (\sqrt{d_k})((d_k) 是 Key 的维度,这里 (d_k=3)):
[
\text{Scaled Scores} = \frac{\text{Scores}}{\sqrt{3}} = \begin{bmatrix}
0.58 & 1.15 & 1.73 \ 2.31 & 4.62 & 4.62 \ 1.73 & 3.46 & 4.04
\end{bmatrix}
]

然后应用 Softmax 归一化(按行):
[
\text{Attention Weights} = \text{softmax}(\text{Scaled Scores}) = \begin{bmatrix}
0.20 & 0.30 & 0.50 \ 0.02 & 0.49 & 0.49 \ 0.04 & 0.24 & 0.72
\end{bmatrix}
]

Step 4: 加权求和得到输出

用 Attention Weights 对 (V) 加权求和:
[
Z = \text{Attention Weights} \cdot V = \begin{bmatrix}
0.20 & 0.30 & 0.50 \ 0.02 & 0.49 & 0.49 \ 0.04 & 0.24 & 0.72
\end{bmatrix} \begin{bmatrix}
0 & 1 & 1 \ 2 & 2 & 2 \ 2 & 2 & 1
\end{bmatrix} = \begin{bmatrix}
1.6 & 1.8 & 1.3 \ 2.0 & 2.0 & 1.5 \ 1.9 & 1.9 & 1.1
\end{bmatrix}
]

最终输出

每个单词的新表示 (Z) 包含了整个序列的信息:
[
Z = \begin{bmatrix}
z_1 \ z_2 \ z_3
\end{bmatrix} = \begin{bmatrix}
1.6 & 1.8 & 1.3 \ 2.0 & 2.0 & 1.5 \ 1.9 & 1.9 & 1.1
\end{bmatrix}
]


2. Self-Attention 的作用

  1. 捕捉长距离依赖:即使 (x_1) 和 (x_3) 相隔很远,Self-Attention 也能直接计算它们的相关性。
  2. 动态权重分配:每个单词的表示会根据其他单词动态调整(如 (z_1) 受 (x_2, x_3) 影响)。
  3. 并行计算:所有位置的注意力可以同时计算,适合 GPU 加速。

3. 实际应用

  • Transformer:编码器和解码器均使用 Self-Attention。
  • BERT/GPT:基于 Transformer 的预训练模型,依赖 Self-Attention 理解上下文。

Self-Attention 的核心思想是让模型自己决定哪些信息更重要,而不是依赖固定规则(如 RNN 的顺序计算)。

http://www.dtcms.com/wzjs/135794.html

相关文章:

  • 贵州企业网站友链之家
  • 做dw网站图片怎么下载seo排名优化价格
  • 阿里云服务起做网站网站在线制作
  • 电商设计灵感网站合肥网站推广优化
  • 惠州网站建设公司曾建设网站的网络公司
  • 免费1级做爰片观看网站在线视频河北网站优化公司
  • 济南市城市建设规划局官方网站哪里注册域名最便宜
  • 旅游网站做精准营销的信阳百度推广公司电话
  • 上海网站推广平台网页开发流程
  • wordpress去掉wordpress.orgseo公司怎样找客户
  • 360推广和百度推广哪个好福州seo快速排名软件
  • 同一产品做多个网站江苏搜索引擎优化
  • 做平面的网站公司建网站流程
  • 重庆网站制作外包seo伪原创工具
  • 中国建设网站企业网上银行业务功能5188关键词平台
  • 太原网站制作哪家好上海关键词优化排名软件
  • 直播平台创建公会吉林seo基础知识
  • 400网站建设推广搜索百度app下载
  • 个人网站建立 学生宁国网络推广
  • 建站开发工具谷歌搜索引擎优化
  • 安顺市建设局网站seo站长常用工具
  • 安徽省建设委员会网站百度竞价排名推广
  • 九江城乡建设网站为什么打不开可以免费打广告的网站
  • 做网站的备案资料好的seo网站
  • 网站制作钱资讯门户类网站有哪些
  • 做自媒体必备的8个网站搜索引擎优化排名品牌
  • wordpress做直播网站吗爱战网官网
  • 电子公司网站源码品牌推广内容
  • 在什么网站上可以做中学数学家教阿里seo排名优化软件
  • 格豪网络建站怎么用网络推广业务