batch_first 会影响 Pytorch LSTM 中的隐藏张量吗?

hho*_*omn 9 lstm pytorch

是否batch_first影响 Pytorch LSTM 中的隐藏张量?

即如果batch_first参数为真,隐藏状态会是(numlayer*direction,num_batch,encoding_dim) 还是(num_batch,numlayer*direction,encoding_dim)

我都测试过,都没有错误。

blu*_*nox 7

前段时间我也在想同样的问题。就像laydog概述的那样,在文档中它说

batch_first – 如果为 True,则输入和输出张量提供为 (batch, seq, feature)

据我了解,我们谈论的是隐藏/细胞状态元组的问题,而不是实际的输入和输出。

对我来说,这似乎很明显不会影响他们提到的隐藏状态:

(批次,序列,特征)

这显然是指输入和输出,而不是由两个具有形状的元组组成的状态元组:

(num_layers * num_directions, 批次, hidden_​​size)

所以我很确定隐藏状态和单元状态不受此影响,我改变隐藏状态元组的顺序也没有意义。

希望这可以帮助。


lay*_*yog 0

来自文档

\n\n
\n

batch_first \xe2\x80\x93 如果为 True,则输入和输出张量提供为 (batch, seq, feature)

\n
\n\n

所以,是的,如果您的输入是批处理优先,那么输出也将是批处理优先。

\n