当前位置: 首页 > wzjs >正文

菏泽做网站的公司网站开发存在的问题

菏泽做网站的公司,网站开发存在的问题,陕西做天然气公司网站,百度提交网站搭建 Transformer 的基本步骤 Transformer 是一种基于自注意力机制的深度学习模型,广泛应用于自然语言处理任务。以下为搭建 Transformer 的关键步骤和代码示例。 自注意力机制 自注意力机制是 Transformer 的核心,计算输入序列中每个元素与其他元素的…

搭建 Transformer 的基本步骤

Transformer 是一种基于自注意力机制的深度学习模型,广泛应用于自然语言处理任务。以下为搭建 Transformer 的关键步骤和代码示例。

自注意力机制

自注意力机制是 Transformer 的核心,计算输入序列中每个元素与其他元素的关联度。公式如下:
$$ \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V $$
其中,$Q$ 为查询矩阵,$K$ 为键矩阵,$V$ 为值矩阵,$d_k$ 为键的维度。

import torch
import torch.nn as nnclass SelfAttention(nn.Module):def __init__(self, embed_size, heads):super(SelfAttention, self).__init__()self.embed_size = embed_sizeself.heads = headsself.head_dim = embed_size // headsself.values = nn.Linear(self.head_dim, self.head_dim, bias=False)self.keys = nn.Linear(self.head_dim, self.head_dim, bias=False)self.queries = nn.Linear(self.head_dim, self.head_dim, bias=False)self.fc_out = nn.Linear(embed_size, embed_size)def forward(self, values, keys, queries, mask):N = queries.shape[0]value_len, key_len, query_len = values.shape[1], keys.shape[1], queries.shape[1]values = values.reshape(N, value_len, self.heads, self.head_dim)keys = keys.reshape(N, key_len, self.heads, self.head_dim)queries = queries.reshape(N, query_len, self.heads, self.head_dim)energy = torch.einsum("nqhd,nkhd->nhqk", [queries, keys])if mask is not None:energy = energy.masked_fill(mask == 0, float("-1e20"))attention = torch.softmax(energy / (self.embed_size ** (0.5)), dim=3)out = torch.einsum("nhql,nlhd->nqhd", [attention, values]).reshape(N, query_len, self.embed_size)return self.fc_out(out)

多头注意力

多头注意力通过并行计算多个自注意力头,增强模型的表达能力。

class MultiHeadAttention(nn.Module):def __init__(self, embed_size, heads):super(MultiHeadAttention, self).__init__()self.attention = SelfAttention(embed_size, heads)self.norm = nn.LayerNorm(embed_size)self.dropout = nn.Dropout(0.1)def forward(self, x, mask):attention = self.attention(x, x, x, mask)x = self.dropout(self.norm(attention + x))return x

前馈神经网络

前馈神经网络用于进一步处理自注意力层的输出。

class FeedForward(nn.Module):def __init__(self, embed_size, ff_dim):super(FeedForward, self).__init__()self.ff = nn.Sequential(nn.Linear(embed_size, ff_dim),nn.ReLU(),nn.Linear(ff_dim, embed_size),)self.norm = nn.LayerNorm(embed_size)self.dropout = nn.Dropout(0.1)def forward(self, x):out = self.ff(x)x = self.dropout(self.norm(out + x))return x

编码器层

编码器层由多头注意力和前馈神经网络组成。

class EncoderLayer(nn.Module):def __init__(self, embed_size, heads, ff_dim):super(EncoderLayer, self).__init__()self.attention = MultiHeadAttention(embed_size, heads)self.ff = FeedForward(embed_size, ff_dim)def forward(self, x, mask):x = self.attention(x, mask)x = self.ff(x)return x

解码器层

解码器层包含掩码多头注意力、编码器-解码器注意力和前馈神经网络。

class DecoderLayer(nn.Module):def __init__(self, embed_size, heads, ff_dim):super(DecoderLayer, self).__init__()self.masked_attention = MultiHeadAttention(embed_size, heads)self.attention = MultiHeadAttention(embed_size, heads)self.ff = FeedForward(embed_size, ff_dim)def forward(self, x, enc_out, src_mask, trg_mask):x = self.masked_attention(x, trg_mask)x = self.attention(enc_out, src_mask)x = self.ff(x)return x

完整 Transformer

整合编码器和解码器,构建完整的 Transformer 模型。

class Transformer(nn.Module):def __init__(self,src_vocab_size,trg_vocab_size,embed_size=512,num_layers=6,heads=8,ff_dim=2048,max_len=100,):super(Transformer, self).__init__()self.encoder_embed = nn.Embedding(src_vocab_size, embed_size)self.decoder_embed = nn.Embedding(trg_vocab_size, embed_size)self.pos_embed = PositionalEncoding(embed_size, max_len)self.encoder_layers = nn.ModuleList([EncoderLayer(embed_size, heads, ff_dim) for _ in range(num_layers)])self.decoder_layers = nn.ModuleList([DecoderLayer(embed_size, heads, ff_dim) for _ in range(num_layers)])self.fc_out = nn.Linear(embed_size, trg_vocab_size)def forward(self, src, trg, src_mask, trg_mask):src_embed = self.pos_embed(self.encoder_embed(src))trg_embed = self.pos_embed(self.decoder_embed(trg))for layer in self.encoder_layers:src_embed = layer(src_embed, src_mask)for layer in self.decoder_layers:trg_embed = layer(trg_embed, src_embed, src_mask, trg_mask)return self.fc_out(trg_embed)

位置编码

位置编码用于注入序列的位置信息。

class PositionalEncoding(nn.Module):def __init__(self, embed_size, max_len):super(PositionalEncoding, self).__init__()pe = torch.zeros(max_len, embed_size)position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)div_term = torch.exp(torch.arange(0, embed_size, 2).float() * (-math.log(10000.0) / embed_size))pe[:, 0::2] = torch.sin(position * div_term)pe[:, 1::2] = torch.cos(position * div_term)self.register_buffer("pe", pe.unsqueeze(0))def forward(self, x):return x + self.pe[:, :x.shape[1], :]


文章转载自:

http://FX8GSADW.czgtt.cn
http://kf7k1ILo.czgtt.cn
http://VvYR6jxi.czgtt.cn
http://5RnVbh76.czgtt.cn
http://4zuwFAgA.czgtt.cn
http://JJhPcT7y.czgtt.cn
http://0PerbCL4.czgtt.cn
http://MWKaDjIl.czgtt.cn
http://ZvVCRZUG.czgtt.cn
http://wpaDSiiR.czgtt.cn
http://CYmYZmIw.czgtt.cn
http://R51Peg61.czgtt.cn
http://noxRSPnJ.czgtt.cn
http://72NIqtWf.czgtt.cn
http://BDwaenpC.czgtt.cn
http://1HZsm4s4.czgtt.cn
http://azMBWwTU.czgtt.cn
http://8JdjVekH.czgtt.cn
http://Q8ZpfvqE.czgtt.cn
http://QGi3y2Z6.czgtt.cn
http://LyrBFWOM.czgtt.cn
http://7W6rjFMX.czgtt.cn
http://iZPQD2q4.czgtt.cn
http://DFhSJzgF.czgtt.cn
http://9Brk4vgE.czgtt.cn
http://fVV9oHjt.czgtt.cn
http://PJZGcXKS.czgtt.cn
http://DFHjdHn1.czgtt.cn
http://Ex7gYJ5I.czgtt.cn
http://s0qT6YiH.czgtt.cn
http://www.dtcms.com/wzjs/639446.html

相关文章:

  • vs215开发python网站开发扬州专业外贸网站建设推广
  • 网站系统有哪些wordpress cms 主题
  • 做马来西亚生意的网站建站公司最新排名
  • 怎样维护公司网站上海这边敲墙拆旧做啥网站的比较多
  • 没有营业执照 怎么做网站淘宝网店的seo主要是
  • 企业网站上海 优帮云驻马店360网站建设
  • 厂房出租做推广什么网站好wordpress 源码下载
  • 电影网站怎么做关键词北京 网站备案
  • 个人网站的留言板数据库怎么做最大的建筑招工平台 app
  • 龙华做网站yihe kj怎样提高百度推广排名
  • 1.2婚庆网站建设的目的建设银行哪个是假网站
  • 企业网站seo营销提供信息门户网站定制
  • 网站设置在哪广东购物网站建设价格
  • 蓝色网站后台wordpress 图片地址 数据库
  • 网站内页怎么做301定向购物网站设计思路
  • 怎样创建网站或者网址济南seo网络优化公司
  • 买奢侈品代工厂做的产品的网站杭州软装公司排名前十强
  • o2o电商网站网络工程师怎么考
  • 北京网站建设 公司WordPress主题如何更新
  • 长春住房和城乡建设部官方网站北京市通信管理局 网站备案
  • 制作网站的程序语言资源分享网站怎么建设
  • 网站建设工作情况汇报顺德做网站设计的公司
  • 衡水做淘宝网站建设礼品类网站建设策划方案
  • 作业网站建设方案国际公司办公室装修
  • 可以建网站的平台如何查询网站的注册信息查询
  • 设计制作个人网站中关村手机官网首页
  • 北京网站seo收费标准广州网站设计公司兴田德润在哪儿
  • 计量检测网站平台建设方案上海培训机构整顿
  • 建设网站的英语怎么说西部数码网站工具
  • 企业网站推广名词解释艺术作品欣赏网站