lbt162020 2022-02-17 10:49 采纳率: 68.8%
浏览 322
已结题

深度学习网络中的num_hiddens代表什么,此处为什么是4*num_hiddens?


class BiRNN(nn.Module):
    def __init__(self, vocab_size, embed_size, num_hiddens, num_layers, **kwargs):
        super(BiRNN, self).__init__(**kwargs)
        self.embedding = nn.Embedding(vocab_size, embed_size)
        # 将bidirectional设置为True获得双向循环神经网络
        self.encoder = nn.LSTM(embed_size, num_hiddens, num_layers, num_layers=num_layers, bidirectional=True)
        self.decoder = nn.Linear(4 * num_hiddens, 2)
     def forward(self, inputs):
       # inputs的形状是(批量大小,时间步数)
       # 因为长短期记忆网络要求其输入的第一个维度是时间维,
       # 所以在获得词元表示之前,输入会被转置。
       # 输出形状为(时间步数,批量大小,词向量维度)
       embeddings = self.embedding(inputs.T)
       self.encoder.flatten_parameters()
       # 返回上一个隐藏层在不同时间步的隐状态,
       # outputs的形状是(时间步数,批量大小,2*隐藏单元数)
       outputs, _ = self.encoder(embeddings)
       # 连结初始和最终时间步的隐状态,作为全连接层的输入,
       # 其形状为(批量大小,4*隐藏单元数)
       encoding = torch.cat((outputs[0], outputs[-1]), dim=1)
       outs = self.decoder(encoding)
       return outs

self.decoder = nn.Linear(4 * num_hiddens, 2),这个全连接层的input为什么是4*num_hiddens

  • 写回答

2条回答 默认 最新

  • 爱晚乏客游 2022-02-18 09:44
    关注

    https://pytorch.org/docs/stable/generated/torch.nn.LSTM.html#torch.nn.LSTM

    img


    先看下LSTM输出的通道数[seq_length, batch_size, num_directions * hidden_size],你的双向num_directions =2,所以在18行的时候你的output=[seq_length, batch_size, 2*hidden_size],第21行中使用toch.cat()进行了一次横向拼接,两个2*hidden_size横向拼接不就是4*hidden_size了?

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 2月26日
  • 已采纳回答 2月18日
  • 创建了问题 2月17日

悬赏问题

  • ¥15 关于#Java#的问题,如何解决?
  • ¥15 加热介质是液体,换热器壳侧导热系数和总的导热系数怎么算
  • ¥15 想问一下树莓派接上显示屏后出现如图所示画面,是什么问题导致的
  • ¥100 嵌入式系统基于PIC16F882和热敏电阻的数字温度计
  • ¥15 cmd cl 0x000007b
  • ¥20 BAPI_PR_CHANGE how to add account assignment information for service line
  • ¥500 火焰左右视图、视差(基于双目相机)
  • ¥100 set_link_state
  • ¥15 虚幻5 UE美术毛发渲染
  • ¥15 CVRP 图论 物流运输优化