当前位置: 首页 > wzjs >正文

如何做外文网站seo必备软件

如何做外文网站,seo必备软件,河南郑州哪里可以做公司网站,深圳网络优化Self-Attention(自注意力)详解 数据示例 Self-Attention(自注意力)是注意力机制的一种特殊形式,用于计算同一序列内部元素之间的相关性。它能够捕捉序列中任意两个元素的长距离依赖关系,广泛应用于Transf…

Self-Attention(自注意力)详解 + 数据示例

Self-Attention(自注意力)是注意力机制的一种特殊形式,用于计算同一序列内部元素之间的相关性。它能够捕捉序列中任意两个元素的长距离依赖关系,广泛应用于Transformer、BERT等模型。


1. Self-Attention 的计算步骤

假设我们有一个输入序列(如句子中的单词),每个单词用向量表示。Self-Attention 的计算过程如下:

输入数据示例

假设我们有 3 个单词的句子,每个单词用 4 维向量表示:

  • X(输入矩阵):
    [
    X = \begin{bmatrix}
    x_1 \ x_2 \ x_3
    \end{bmatrix} = \begin{bmatrix}
    1 & 0 & 1 & 0 \ 0 & 2 & 0 & 2 \ 1 & 1 & 1 & 1
    \end{bmatrix}
    ]
    • (x_1 = [1, 0, 1, 0])
    • (x_2 = [0, 2, 0, 2])
    • (x_3 = [1, 1, 1, 1])

Step 1: 计算 Query (Q), Key (K), Value (V)

Self-Attention 通过三个权重矩阵 (W^Q, W^K, W^V) 将输入 (X) 映射到 Query、Key、Value:
[
Q = X W^Q, \quad K = X W^K, \quad V = X W^V
]

假设:
[
W^Q = \begin{bmatrix}
1 & 0 & 1 \ 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 1 & 1
\end{bmatrix}, \quad
W^K = \begin{bmatrix}
0 & 1 & 1 \ 1 & 0 & 1 \ 0 & 1 & 0 \ 1 & 0 & 0
\end{bmatrix}, \quad
W^V = \begin{bmatrix}
0 & 0 & 1 \ 1 & 1 & 0 \ 0 & 1 & 0 \ 1 & 0 & 1
\end{bmatrix}
]

计算:
[
Q = X W^Q = \begin{bmatrix}
1 & 0 & 1 & 0 \ 0 & 2 & 0 & 2 \ 1 & 1 & 1 & 1
\end{bmatrix} \begin{bmatrix}
1 & 0 & 1 \ 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 1 & 1
\end{bmatrix} = \begin{bmatrix}
1 & 0 & 1 \ 2 & 2 & 2 \ 2 & 1 & 2
\end{bmatrix}
]
[
K = X W^K = \begin{bmatrix}
0 & 1 & 1 \ 4 & 0 & 2 \ 2 & 2 & 1
\end{bmatrix}, \quad
V = X W^V = \begin{bmatrix}
0 & 1 & 1 \ 2 & 2 & 2 \ 2 & 2 & 1
\end{bmatrix}
]

Step 2: 计算注意力分数(Attention Scores)

计算 (Q) 和 (K) 的点积,得到注意力分数矩阵:
[
\text{Scores} = Q K^T = \begin{bmatrix}
1 & 0 & 1 \ 2 & 2 & 2 \ 2 & 1 & 2
\end{bmatrix} \begin{bmatrix}
0 & 4 & 2 \ 1 & 0 & 2 \ 1 & 2 & 1
\end{bmatrix} = \begin{bmatrix}
1 & 2 & 3 \ 4 & 8 & 8 \ 3 & 6 & 7
\end{bmatrix}
]

Step 3: 缩放 + Softmax 归一化

为了防止点积过大,通常除以 (\sqrt{d_k})((d_k) 是 Key 的维度,这里 (d_k=3)):
[
\text{Scaled Scores} = \frac{\text{Scores}}{\sqrt{3}} = \begin{bmatrix}
0.58 & 1.15 & 1.73 \ 2.31 & 4.62 & 4.62 \ 1.73 & 3.46 & 4.04
\end{bmatrix}
]

然后应用 Softmax 归一化(按行):
[
\text{Attention Weights} = \text{softmax}(\text{Scaled Scores}) = \begin{bmatrix}
0.20 & 0.30 & 0.50 \ 0.02 & 0.49 & 0.49 \ 0.04 & 0.24 & 0.72
\end{bmatrix}
]

Step 4: 加权求和得到输出

用 Attention Weights 对 (V) 加权求和:
[
Z = \text{Attention Weights} \cdot V = \begin{bmatrix}
0.20 & 0.30 & 0.50 \ 0.02 & 0.49 & 0.49 \ 0.04 & 0.24 & 0.72
\end{bmatrix} \begin{bmatrix}
0 & 1 & 1 \ 2 & 2 & 2 \ 2 & 2 & 1
\end{bmatrix} = \begin{bmatrix}
1.6 & 1.8 & 1.3 \ 2.0 & 2.0 & 1.5 \ 1.9 & 1.9 & 1.1
\end{bmatrix}
]

最终输出

每个单词的新表示 (Z) 包含了整个序列的信息:
[
Z = \begin{bmatrix}
z_1 \ z_2 \ z_3
\end{bmatrix} = \begin{bmatrix}
1.6 & 1.8 & 1.3 \ 2.0 & 2.0 & 1.5 \ 1.9 & 1.9 & 1.1
\end{bmatrix}
]


2. Self-Attention 的作用

  1. 捕捉长距离依赖:即使 (x_1) 和 (x_3) 相隔很远,Self-Attention 也能直接计算它们的相关性。
  2. 动态权重分配:每个单词的表示会根据其他单词动态调整(如 (z_1) 受 (x_2, x_3) 影响)。
  3. 并行计算:所有位置的注意力可以同时计算,适合 GPU 加速。

3. 实际应用

  • Transformer:编码器和解码器均使用 Self-Attention。
  • BERT/GPT:基于 Transformer 的预训练模型,依赖 Self-Attention 理解上下文。

Self-Attention 的核心思想是让模型自己决定哪些信息更重要,而不是依赖固定规则(如 RNN 的顺序计算)。

http://www.dtcms.com/wzjs/111239.html

相关文章:

  • asp.net动态网站建设课程描述青岛最新消息
  • 做网站如何连数据库精准客源引流平台
  • 网站怎样做收录会更好电商网站seo优化
  • 游戏排行榜前十名大型网络游戏如何优化推广网站
  • 网站建设专家北京注安地推接单网
  • 微信小程序怎么做扫码下单seo工作内容和薪资
  • 做网站的排名小红书推广怎么收费
  • 做网站导航能赚钱吗b站推广费用一般多少
  • 网上做网站任务网站建设总结
  • 网站报纸什么软件做搜索点击软件
  • 北京密云住房和城乡建设委员会网站南宁市优化网站公司
  • 做外贸的网站有哪几个黄页网络的推广网站有哪些类型
  • 做推送的网站推荐南京网站制作
  • html做的网站怎么发布软文的概念是什么
  • 高端自适应网站开发网络运营与推广
  • 自己搭建服务器做视频网站今日头条热搜榜前十名
  • 表白墙网站怎么做个人网上卖货的平台
  • 没有域名 怎么做网站链接做排名优化
  • 有了源代码怎么做网站网站排名优化工具
  • wordpress怎么改电子邮箱关键词优化价格表
  • 快速做网站费用百度官网登录入口
  • 网页设计 网站建设 哪个好seo关键词优化排名外包
  • 做网站的cnfgseo自动优化工具
  • liunx做网站跳转服务器今日国际新闻摘抄
  • 上海政府官方网南宁网站seo
  • 外贸营销策略郑州seo多少钱
  • 中国做爰网站百度快速收录软件
  • wordpress能当论坛用郑州seo排名优化公司
  • 申请个人网站怎么申请鄞州seo服务
  • 洪山网站建设新型网络搜索引擎