当前位置: 首页 > wzjs >正文

win系统做网站seo简单速排名软件

win系统做网站,seo简单速排名软件,图形设计网站,wordpress雪花一、PositionEncoding 论文地址 https://arxiv.org/pdf/1706.03762 位置编码介绍 位置编码在Transformer模型中是用来将位置信息与输入序列相结合的一种技术。在传统的序列模型(如RNN)中,输入的序列数据是有顺序的,模型本身能够感…

一、PositionEncoding

  • 论文地址

    https://arxiv.org/pdf/1706.03762

位置编码介绍

  • 位置编码在Transformer模型中是用来将位置信息与输入序列相结合的一种技术。在传统的序列模型(如RNN)中,输入的序列数据是有顺序的,模型本身能够感知输入数据的顺序。然而,Transformer是一种不具备内置顺序敏感性的模型,因此需要通过位置编码来将位置信息显式地添加到输入数据中。

    image-20250422213507984

位置编码的数学公式

  • 在Transformer中,位置编码通过一组确定性的正弦和余弦函数的组合来产生。这种编码方式允许模型学习位置信息,同时也保留了相对位置的不变性。具体的数学公式如下

    image-20250422213601326
    P E ( p o s , 2 i ) = sin ⁡ ( p o s 1000 0 2 i d m o d e l ) P E ( p o s , 2 i + 1 ) = cos ⁡ ( p o s 1000 0 2 i d m o d e l ) PE_(pos,2i) = \sin ( \frac{pos}{10000^{ \frac{2i}{d_{model}} } } ) \\ \quad \\ PE_(pos,2i+1) = \cos ( \frac{pos}{10000^{ \frac{2i}{d_{model}} } } ) \\ PE(pos,2i)=sin(10000dmodel2ipos)PE(pos,2i+1)=cos(10000dmodel2ipos)

    其中, p o s pos pos 表示位置, i i i 是维度索引, d m o d e l d_{model} dmodel 是模型的维度 (即embedding的维度)。

代码

  • 根据上述公式,实现 PositionlEncoding

    from torch import nn
    import torchclass PositionEncoding(nn.Module):"""位置编码"""def __init__(self, d_model, max_seq_len=512):super(PositionEncoding, self).__init__()# shape[max_seq_len]position = torch.arange(0, max_seq_len)# shape[max_seq_len, 1]position = position.unsqueeze(1)  # 升维# shape [d_model/2]item = 1 / 10000 ** (torch.arange(0, d_model, 2) / d_model)# shape[max_seq_len, d_model/2]tmp_pos = position * item# shape[max_seq_len, d_model]pe = torch.zeros(max_seq_len, d_model)pe[:, 0::2] = torch.sin(tmp_pos)  # 偶数pe[:, 1::2] = torch.cos(tmp_pos)  # 奇数# shape: [max_seq_len, d_model] --> [batch, max_seq_len, d_model]pe = pe.unsqueeze(0)  # 在第一个维度上升维# 将位置编码pe注册为缓冲区self.register_buffer(name="pe", tensor=pe, persistent=False)def forward(self, x):batch, seq_len, d_model = x.shapepe = self.pereturn x + pe[:, :seq_len, :]
    
  • 相关解释

    1. 初始化参数解释

      d_model : 模型维度(embedding维度)

      max_seq_len : 是模型支持的最大序列长度,确保模型能够处理任意长度不超过 max_seq_len 的序列。

    2. 注册缓冲区

      self.register_buffer 方法

      通过将位置编码 pe 注册为缓冲区,可以在模型的前向传播中直接使用 self.pe,而不需要每次都重新计算。
      缓冲区不会被优化器更新,因此位置编码在训练过程中保持不变,这符合位置编码的设计初衷。

    3. 前向传播参数

      x : 输入序列,shape为 [batch_size, seq_len, d_model]

使用示例

  • 测试代码

    # 假设我们有一个大小为 (batch_size=32, seq_len=20, d_model=512) 的输入
    batch_size = 32
    seq_len = 20
    d_model = 512# 创建位置编码的实例
    pos_encoding_layer = PositionEncoding(d_model=d_model)# 生成随机输入数据
    input_data = torch.randn(batch_size, seq_len, d_model)# 获取带有位置编码的数据
    output_data = pos_encoding_layer(input_data)print(output_data.shape)  # 输出应为 (32, 20, 512)
    

    创建一个PositionEncoding类的实例,并通过传入一个随机生成的输入张量来获取添加了位置信息的输出张量。

    注意,PositionalEncoding 不改变输入序列的长度

http://www.dtcms.com/wzjs/335404.html

相关文章:

  • 免费网站建设模版下载企业营销网站制作
  • 江苏政府网站建设对比评估搜索引擎是网站吗
  • 中小企业服务中心网站建设百度收录快的发帖平台
  • 泊头市网站建设价格抖音seo优化排名
  • 企业没有专业人员怎么建设网站百度网址提交
  • 湛江有人做网站 的吗南昌网站优化公司
  • 创网站seo入门培训教程
  • 重庆涪陵建设银行网站网页版
  • 宝塔wordpress安装页面打不开seo网站推广软件 快排
  • 深圳市公司网站建设网络广告营销案例
  • 怎么做织梦网站深圳网站建设公司官网
  • js代码能用在wordpress吗抖音优化排名
  • 网站dns解析设置中国最新疫情最新消息
  • 毕业设计做网站还是系统好热点时事新闻
  • 网站维护要学多久苏州网站建设优化
  • 深圳网站建设 推荐xtdseo信息流广告投放工作内容
  • t恤图案设计网站广告优化师工作内容
  • 泉港区建设局网站廉政百度官方优化软件
  • 做seo网站谷歌官网下载app
  • table做网站的好处关键词优化快速
  • 长沙营销网站建设百度指数是啥
  • 怎样用记事本做网站网站关键词优化方法
  • 网站设计站怎么快速优化关键词排名
  • 厦门网站建设哪家便宜如何推广网上国网
  • 网站开发语言怎么选百度收录关键词查询
  • 青岛专业网站建设价格爱链接
  • 制作精美网站建设售后完善事件营销
  • 网站底部浮动电话广告黄冈网站推广优化找哪家
  • 黑色炫酷的监控网站html东莞网站seo公司
  • 网站建设赠送seoseo的范畴是什么