当前位置: 首页 > wzjs >正文

高端网站建设 炫酷金华关键词优化平台

高端网站建设 炫酷,金华关键词优化平台,找公司做网站有什么好处,免费申请注册网站主要组成部分: 1. 定义注意力层: 定义一个Attention_Layer类,接受两个参数:hidden_dim(隐藏层维度)和is_bi_rnn(是否是双向RNN)。 2. 定义前向传播: 定义了注意力层的…

主要组成部分:

1. 定义注意力层

定义一个Attention_Layer类,接受两个参数:hidden_dim(隐藏层维度)和is_bi_rnn(是否是双向RNN)。

2. 定义前向传播:

定义了注意力层的前向传播过程,包括计算注意力权重和输出。

3. 数据准备

生成一个随机的数据集,包含3个句子,每个句子10个词,每个词128个特征。

4. 实例化注意力层:

实例化一个注意力层,接受两个参数:hidden_dim(隐藏层维度)和is_bi_rnn(是否是双向RNN)。

5. 前向传播

将数据传递给注意力层的前向传播方法。

6. 分析结果

获取第一个句子的注意力权重。

7. 可视化注意力权重

使用matplotlib库可视化了注意力权重。

**主要函数和类:**
Attention_Layer类:定义了注意力层的结构和前向传播过程。
forward方法:定义了注意力层的前向传播过程。
torch.from_numpy函数:将numpy数组转换为PyTorch张量。
matplotlib库:用于可视化注意力权重。
import torch
import torch.nn as nn
import torch.nn.functional as F
import numpy as np
import matplotlib.pyplot as plt# 定义注意力层
class Attention_Layer(nn.Module):def __init__(self, hidden_dim, is_bi_rnn):super(Attention_Layer,self).__init__()self.hidden_dim = hidden_dimself.is_bi_rnn = is_bi_rnnif is_bi_rnn:self.Q_linear = nn.Linear(hidden_dim * 2, hidden_dim * 2, bias = False)self.K_linear = nn.Linear(hidden_dim * 2, hidden_dim * 2, bias = False)self.V_linear = nn.Linear(hidden_dim * 2, hidden_dim * 2, bias = False)else:self.Q_linear = nn.Linear(hidden_dim, hidden_dim, bias = False)self.K_linear = nn.Linear(hidden_dim, hidden_dim, bias = False)self.V_linear = nn.Linear(hidden_dim, hidden_dim, bias = False)def forward(self, inputs, lens):# 获取输入的大小size = inputs.size()Q = self.Q_linear(inputs) K = self.K_linear(inputs).permute(0, 2, 1)V = self.V_linear(inputs)max_len = max(lens)sentence_lengths = torch.Tensor(lens)mask = torch.arange(sentence_lengths.max().item())[None, :] < sentence_lengths[:, None]mask = mask.unsqueeze(dim = 1)mask = mask.expand(size[0], max_len, max_len)padding_num = torch.ones_like(mask)padding_num = -2**31 * padding_num.float()alpha = torch.matmul(Q, K)alpha = torch.where(mask, alpha, padding_num)alpha = F.softmax(alpha, dim = 2)out = torch.matmul(alpha, V)return out# 准备数据
data = np.random.rand(3, 10, 128)  # 3个句子,每个句子10个词,每个词128个特征
lens = [7, 10, 4]  # 每个句子的长度# 实例化注意力层
hidden_dim = 64
is_bi_rnn = True
att_L = Attention_Layer(hidden_dim, is_bi_rnn)# 前向传播
att_out = att_L(torch.from_numpy(data).float(), lens)# 分析结果
attention_weights = att_out[0, :, :].detach().numpy()  # 获取第一个句子的注意力权重# 可视化注意力权重
plt.imshow(attention_weights, cmap='hot', interpolation='nearest')
plt.colorbar()
plt.show()

在这里插入图片描述

http://www.dtcms.com/wzjs/321482.html

相关文章:

  • 广州网站建设咨询电话全网营销推广 好做吗
  • 做第三方团购的平台网站网站如何推广营销
  • 做网站一般图片的比例网站安全查询系统
  • 做推广网站的去哪能买到有效资料网站免费软件
  • 网站建设企业济南品牌营销推广策划方案
  • 怎么筛选一家做网站做的好的公司网络科技公司骗了我36800
  • 政府响应式网站建设海豹直播nba
  • 网站开发支付超时如何解决外贸网站推广软件
  • 免费单页网站在线制作友链
  • 怎么做网站海报搜索引擎营销有哪些方式
  • 买域名做网站跳转如何免费注册网站
  • 龙门城乡规划建设局网站如何优化搜索关键词
  • dede 网站打开慢投广告哪个平台好
  • wordpress如何安装专题seo内链优化
  • 搜狐员工做网站的工资多少钱广州推广seo
  • 手机网站系统海南百度推广电话
  • 注册公司核名在哪里核名seo推广哪家公司好
  • 合肥网站优化公司yandere搜索引擎入口
  • 在线销售型网站产品写软文用什么软件
  • JAVA网站开发二次框架seo关键词推广方式
  • 福建漳州网站建设公司网站可以自己建立吗
  • 建设部网站不支持360中国网新山东
  • 网站集约化建设优点云南网站建设公司哪家好
  • 南昌网站小程序开发自动外链网址
  • 优惠券网站怎么做百度收录时间
  • 如何做彩票网站信息国外域名注册平台
  • 个网站做淘宝客推广可以吗南京seo外包
  • 河南住房和城乡建设厅官网深圳百度首页优化
  • 网站建设少用控件如何进行网络推广和宣传
  • 网站服务器租用年度价格郑州专业seo首选