当前位置: 首页 > wzjs >正文

如何做外文网站百度关键词代做排名

如何做外文网站,百度关键词代做排名,软件系统开发方案,wordpress baidu seoSelf-Attention(自注意力)详解 数据示例 Self-Attention(自注意力)是注意力机制的一种特殊形式,用于计算同一序列内部元素之间的相关性。它能够捕捉序列中任意两个元素的长距离依赖关系,广泛应用于Transf…

Self-Attention(自注意力)详解 + 数据示例

Self-Attention(自注意力)是注意力机制的一种特殊形式,用于计算同一序列内部元素之间的相关性。它能够捕捉序列中任意两个元素的长距离依赖关系,广泛应用于Transformer、BERT等模型。


1. Self-Attention 的计算步骤

假设我们有一个输入序列(如句子中的单词),每个单词用向量表示。Self-Attention 的计算过程如下:

输入数据示例

假设我们有 3 个单词的句子,每个单词用 4 维向量表示:

  • X(输入矩阵):
    [
    X = \begin{bmatrix}
    x_1 \ x_2 \ x_3
    \end{bmatrix} = \begin{bmatrix}
    1 & 0 & 1 & 0 \ 0 & 2 & 0 & 2 \ 1 & 1 & 1 & 1
    \end{bmatrix}
    ]
    • (x_1 = [1, 0, 1, 0])
    • (x_2 = [0, 2, 0, 2])
    • (x_3 = [1, 1, 1, 1])

Step 1: 计算 Query (Q), Key (K), Value (V)

Self-Attention 通过三个权重矩阵 (W^Q, W^K, W^V) 将输入 (X) 映射到 Query、Key、Value:
[
Q = X W^Q, \quad K = X W^K, \quad V = X W^V
]

假设:
[
W^Q = \begin{bmatrix}
1 & 0 & 1 \ 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 1 & 1
\end{bmatrix}, \quad
W^K = \begin{bmatrix}
0 & 1 & 1 \ 1 & 0 & 1 \ 0 & 1 & 0 \ 1 & 0 & 0
\end{bmatrix}, \quad
W^V = \begin{bmatrix}
0 & 0 & 1 \ 1 & 1 & 0 \ 0 & 1 & 0 \ 1 & 0 & 1
\end{bmatrix}
]

计算:
[
Q = X W^Q = \begin{bmatrix}
1 & 0 & 1 & 0 \ 0 & 2 & 0 & 2 \ 1 & 1 & 1 & 1
\end{bmatrix} \begin{bmatrix}
1 & 0 & 1 \ 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 1 & 1
\end{bmatrix} = \begin{bmatrix}
1 & 0 & 1 \ 2 & 2 & 2 \ 2 & 1 & 2
\end{bmatrix}
]
[
K = X W^K = \begin{bmatrix}
0 & 1 & 1 \ 4 & 0 & 2 \ 2 & 2 & 1
\end{bmatrix}, \quad
V = X W^V = \begin{bmatrix}
0 & 1 & 1 \ 2 & 2 & 2 \ 2 & 2 & 1
\end{bmatrix}
]

Step 2: 计算注意力分数(Attention Scores)

计算 (Q) 和 (K) 的点积,得到注意力分数矩阵:
[
\text{Scores} = Q K^T = \begin{bmatrix}
1 & 0 & 1 \ 2 & 2 & 2 \ 2 & 1 & 2
\end{bmatrix} \begin{bmatrix}
0 & 4 & 2 \ 1 & 0 & 2 \ 1 & 2 & 1
\end{bmatrix} = \begin{bmatrix}
1 & 2 & 3 \ 4 & 8 & 8 \ 3 & 6 & 7
\end{bmatrix}
]

Step 3: 缩放 + Softmax 归一化

为了防止点积过大,通常除以 (\sqrt{d_k})((d_k) 是 Key 的维度,这里 (d_k=3)):
[
\text{Scaled Scores} = \frac{\text{Scores}}{\sqrt{3}} = \begin{bmatrix}
0.58 & 1.15 & 1.73 \ 2.31 & 4.62 & 4.62 \ 1.73 & 3.46 & 4.04
\end{bmatrix}
]

然后应用 Softmax 归一化(按行):
[
\text{Attention Weights} = \text{softmax}(\text{Scaled Scores}) = \begin{bmatrix}
0.20 & 0.30 & 0.50 \ 0.02 & 0.49 & 0.49 \ 0.04 & 0.24 & 0.72
\end{bmatrix}
]

Step 4: 加权求和得到输出

用 Attention Weights 对 (V) 加权求和:
[
Z = \text{Attention Weights} \cdot V = \begin{bmatrix}
0.20 & 0.30 & 0.50 \ 0.02 & 0.49 & 0.49 \ 0.04 & 0.24 & 0.72
\end{bmatrix} \begin{bmatrix}
0 & 1 & 1 \ 2 & 2 & 2 \ 2 & 2 & 1
\end{bmatrix} = \begin{bmatrix}
1.6 & 1.8 & 1.3 \ 2.0 & 2.0 & 1.5 \ 1.9 & 1.9 & 1.1
\end{bmatrix}
]

最终输出

每个单词的新表示 (Z) 包含了整个序列的信息:
[
Z = \begin{bmatrix}
z_1 \ z_2 \ z_3
\end{bmatrix} = \begin{bmatrix}
1.6 & 1.8 & 1.3 \ 2.0 & 2.0 & 1.5 \ 1.9 & 1.9 & 1.1
\end{bmatrix}
]


2. Self-Attention 的作用

  1. 捕捉长距离依赖:即使 (x_1) 和 (x_3) 相隔很远,Self-Attention 也能直接计算它们的相关性。
  2. 动态权重分配:每个单词的表示会根据其他单词动态调整(如 (z_1) 受 (x_2, x_3) 影响)。
  3. 并行计算:所有位置的注意力可以同时计算,适合 GPU 加速。

3. 实际应用

  • Transformer:编码器和解码器均使用 Self-Attention。
  • BERT/GPT:基于 Transformer 的预训练模型,依赖 Self-Attention 理解上下文。

Self-Attention 的核心思想是让模型自己决定哪些信息更重要,而不是依赖固定规则(如 RNN 的顺序计算)。

http://www.dtcms.com/wzjs/229961.html

相关文章:

  • 一家做特卖的网站站长之家网站模板
  • 谁做政府网站群内网营销策略怎么写模板
  • 昆山做轮胎网站网站宣传推广文案
  • 红页网站如何做在线生成个人网站源码
  • wordpress后台乱了是怎么回事深圳搜狗seo
  • 营销网站重要特点是四种营销策略
  • 上海做高端网站制作网站的公司有哪些
  • 北京网站开发网站建设报价天津seo博客
  • 杭州的网站建设公司每日新闻
  • 口碑好的秦皇岛网站建设哪里有长沙优化科技
  • 代做网站公司有哪些小程序商城制作一个需要多少钱
  • 随州公司做网站高权重外链
  • 哪家外贸网站做的好网站关键词优化推广哪家快
  • 主机屋做淘宝客网站seo扣费系统源码
  • 香河做网站邮件营销
  • wordpress小程序生成青岛谷歌优化
  • 徐州网站建设案例推广页面制作
  • wordpress这个博客seo模拟点击
  • 网站建设是否需形成无形资产加盟
  • 做网站的北京代运营公司怎么找客户
  • 图片站手机网站怎么做的网络营销实训总结报告
  • 动态个人网站模板下载免费的关键词优化软件
  • 网站建设seo优化推广资源
  • Sensei wordpress插件浙江搜索引擎优化
  • 黄江二手车东莞网站建设怎么联系地推公司
  • 吉林省新闻最新头条武汉官网优化公司
  • 找人代做网站需要注意什么网站建设的好公司
  • 营销云产品长沙官网seo技术厂家
  • 大连模板网站制作价格优化百度搜索
  • 下载asp做网站如何做地推推广技巧