ebed = torch.nn.Embedding(num_embedding, embedding_dim)"""参数解释:num_Embedding:去重后词的数量【即:unique_word_list列表元素个数,或word_list词典的键值对的个数】Embedding_dim:每个词向量的维度数 【可以随意设置】官方解释:num_embeddings (int): size of the dictionary of embeddingsembedding_dim (int): the size of each embedding vector注意:embedding的结果要输入到RNN中,需要满足RNN输入形状的要求,因此需要对embedding结果0和1做位置交换:ebed.transpose(0,1)
"""
RNN循环神经网络层
API调用:
# 定义网络层
rnn = torch.nn.RNN(input_size, hidden_size, num_layers)"""参数解释:input_size:输入数据的维度,一般是指每个输入词向量维度 【必须与embedding层设置的词向量维度数一致】hidden_size:隐藏状态的维度,也就是当前层神经元维度 【可以任意设置】num_layers:隐藏层的层数 【任意设置】官方解释:input_size: The number of expected features in the input `x`hidden_size: The number of features in the hidden state `h`num_layers: Number of recurrent layers.
"""# 网络层的调用
x, hidden = rnn(x, hidden)"""参数解释:x:输入的embedding结果,形状 -> (seq_len, batch, input_size)seq_len:每个句子划分的词的个数batch:每个批次的句子条数input_size:每个词向量的维度数hidden:隐藏状态结果,形状 -> (num_layers, batch, hidden_size)num_layers:隐藏层层数batch:每个批次的句子条数hidden_size:输入隐藏状态的维度
"""