当前位置: 首页 > news >正文

Transformer架构详解:从Encoder到Decoder的完整旅程

引言:从Self-Attention到完整架构

在上一篇文章中,我们深入剖析了Self-Attention机制的核心原理。然而,Transformer的魅力远不止于此——其Encoder-Decoder架构通过巧妙的模块化设计,实现了从机器翻译到文本生成的广泛能力。本文将以“架构拆解+数学推导+代码实现”的方式,完整揭示Transformer的工作机制。

一、Transformer整体架构全景图

Transformer由N个相同的Encoder层和Decoder层堆叠而成(通常N=6)。其核心流程如下:

输入序列 → Encoder → 上下文表示 → Decoder → 输出序列  

二、Encoder层深度解析

每个Encoder层包含两个核心子层:

2.1 多头自注意力(Multi-Head Attention)

\text{MultiHead}(Q,K,V) = \text{Concat}(head_1,...,head_h)W^O  

其中每个头独立计算Self-Attention:

head_i = \text{Attention}(QW_i^Q, KW_i^K, VW_i^V)  

作用:从不同子空间捕捉特征,提升模型表达能力。

2.2 前馈神经网络(FFN)

\text{FFN}(x) = \max(0, xW_1 + b_1)W_2 + b_2  

设计特点:

  • 使用ReLU激活函数
  • 中间层维度通常为4×d_model(如d_model=512时,中间层为2048)

2.3 残差连接与层归一化
每个子层输出计算为:

x_{out} = \text{LayerNorm}(x + \text{Sublayer}(x))  

数学意义:防止梯度消失,加速模型收敛。

三、Decoder层核心技术揭秘

Decoder在Encoder基础上新增两个关键机制:

3.1 掩码自注意力(Masked Self-Attention)
通过下三角矩阵掩码,确保当前位置只能关注之前的位置:

# 生成掩码矩阵
mask = torch.triu(torch.ones(seq_len, seq_len), diagonal=1).bool()
scores.masked_fill_(mask, -1e9)  

作用:防止解码时“偷看”未来信息,保证自回归特性。

3.2 Encoder-Decoder注意力
Query来自Decoder上一层的输出,Key/Value来自Encoder最终输出:

\text{Attention}(Q_{dec}, K_{enc}, V_{enc})  

物理意义:建立输入序列与输出序列的语义对齐。

四、核心组件实现详解

4.1 位置前馈网络(Position-wise FFN)代码实现

class FeedForward(nn.Module):
    def __init__(self, d_model, d_ff=2048):
        super().__init__()
        self.linear1 = nn.Linear(d_model, d_ff)
        self.linear2 = nn.Linear(d_ff, d_model)
        
    def forward(self, x):
        return self.linear2(F.relu(self.linear1(x)))

# 输入维度示例:x.shape = [batch, seq_len, 512]

4.2 层归一化(LayerNorm)的位置
实验表明,Transformer使用Post-LN结构(先残差连接后归一化):

class Sublayer(nn.Module):
    def __init__(self, d_model, dropout=0.1):
        super().__init__()
        self.norm = nn.LayerNorm(d_model)
        self.dropout = nn.Dropout(dropout)
        
    def forward(self, x, sublayer):
        return x + self.dropout(sublayer(self.norm(x)))

五、训练与推理关键技术

5.1 动态掩码技术
在训练时随机屏蔽不同位置的token,提升鲁棒性:

def create_mask(seq, pad_idx):
    mask = (seq != pad_idx).unsqueeze(1)  # padding掩码
    seq_mask = (1 - torch.triu(torch.ones(seq_len, seq_len))).bool()  # 序列掩码
    return mask & seq_mask

5.2 标签平滑(Label Smoothing)
缓解过拟合,计算公式:

q_i = \begin{cases} 
1-\epsilon+\epsilon/K & \text{if } i=y \\
\epsilon/K & \text{otherwise}
\end{cases}  

其中ε=0.1,K为类别数。

六、完整模型实现与效果验证
使用PyTorch搭建完整Transformer:

class Transformer(nn.Module):
    def __init__(self, src_vocab, tgt_vocab, N=6, d_model=512):
        super().__init__()
        self.encoder = Encoder(N, d_model)
        self.decoder = Decoder(N, d_model)
        self.src_embed = nn.Embedding(src_vocab, d_model)
        self.tgt_embed = nn.Embedding(tgt_vocab, d_model)
        
    def forward(self, src, tgt):
        memory = self.encoder(self.src_embed(src))
        output = self.decoder(self.tgt_embed(tgt), memory)
        return output

# 示例:英中翻译任务
model = Transformer(src_vocab=10000, tgt_vocab=8000)

七、总结与延展思考

Transformer通过以下设计革新了序列建模:

  1. 并行计算:彻底摆脱RNN的时序依赖
  2. 层次化注意力:从局部到全局的特征抽象
  3. 统一架构:同一模型处理不同模态任务

思考题

  • 为什么Decoder需要两个不同的注意力层?
  • 如何理解“多头”注意力中的“头”维度分配?

下期预告:《Vision Transformer实战:如何将Transformer应用于图像分类》

参考资料

  1. Vaswani A, et al. Attention Is All You Need. NeurIPS 2017
  2. Transformer代码库

(注:文中部分示意图需配合代码运行生成,完整实现代码可在CSDN资源下载专区获取)

http://www.dtcms.com/a/110027.html

相关文章:

  • VSCode历史版本的下载安装
  • 破解AI编程瓶颈:上下文管理助力高效开发,以Cline为例
  • kornia,一个实用的 Python 库!
  • 环形链表相关题目
  • ARM架构安装MySQL8.0
  • 数据结构每日一题day11(链表)★★★★★
  • Python HTTP交互双剑客:requests与responses实战指南
  • 2025年消防设施操作员考试题库及答案
  • 矩池云使用指南
  • 高级IO模型
  • 华三H3C模拟器HCL搭建简单内网三层网络
  • Lua:第1-4部分 语言基础
  • Compose组件转换XML布局
  • 煤矿沿线 智能输入输出模块,一般用来干什么
  • 使用 Vue3 打造一个简易分类器演示工具
  • LLM大模型教程——为什么要学习AI大模型
  • 力扣HOT100之矩阵:240. 搜索二维矩阵 II
  • DLL修复工具4DDiG.DLL.Fixer
  • 雷达图 之 缺失值忽略
  • PMP考试改革解读:新题型+5A通关秘籍
  • 基础科学中的人工智能︱如何用机器学习方法求解排列型组合优化问题?
  • SQL语句的训练
  • 如何在 Linux 上安装和配置 Zsh
  • 19728 拼十字
  • 算力重构营销生态:广电数字人 “造星“ 运动背后的智能革命
  • Ceph异地数据同步之-RBD异地同步复制(下)
  • NO.63十六届蓝桥杯备战|基础算法-⼆分答案|木材加工|砍树|跳石头(C++)
  • ZCC8702,LED驱动芯片的“六边形战士”可替代SY8707
  • 服务器有2张显卡,在别的虚拟环境部署运行了Xinference,然后又建个虚拟环境再部署一个可以吗?
  • ngx_time_init