是否batch_first影响 Pytorch LSTM 中的隐藏张量?
即如果batch_first参数为真,隐藏状态会是(numlayer*direction,num_batch,encoding_dim)
还是(num_batch,numlayer*direction,encoding_dim)
我都测试过,都没有错误。
前段时间我也在想同样的问题。就像laydog概述的那样,在文档中它说
batch_first – 如果为 True,则输入和输出张量提供为 (batch, seq, feature)
据我了解,我们谈论的是隐藏/细胞状态元组的问题,而不是实际的输入和输出。
对我来说,这似乎很明显不会影响他们提到的隐藏状态:
(批次,序列,特征)
这显然是指输入和输出,而不是由两个具有形状的元组组成的状态元组:
(num_layers * num_directions, 批次, hidden_size)
所以我很确定隐藏状态和单元状态不受此影响,我改变隐藏状态元组的顺序也没有意义。
希望这可以帮助。
| 归档时间: |
|
| 查看次数: |
2441 次 |
| 最近记录: |