相关疑难解决方法(0)

为什么我们在pytorch中"打包"序列?

我试图复制如何使用包装为rnn的可变长度序列输入,但我想我首先需要理解为什么我们需要"打包"序列.

我理解为什么我们需要"填充"它们,但为什么要"打包"(通过pack_padded_sequence)必要?

任何高级别的解释将不胜感激!

deep-learning recurrent-neural-network pytorch tensor zero-padding

56
推荐指数
4
解决办法
1万
查看次数

PyTorch中的tensor.permute和tensor.view之间的区别?

tensor.permute()和之间有什么区别tensor.view()

他们似乎做同样的事情。

python multidimensional-array deep-learning pytorch tensor

8
推荐指数
2
解决办法
6537
查看次数