在numpy中,我们ndarray.reshape()
用于重塑数组.
我注意到在pytorch中,人们使用torch.view(...)
同样的目的,但同时也torch.reshape(...)
存在.
所以我想知道他们和我应该使用其中任何一个之间的差异是什么?
tensor.permute()
和之间有什么区别tensor.view()
?
他们似乎做同样的事情。
我正在学习一些关于使用 lstm 网络进行情感分析的教程。下面的代码表示它堆叠了 lstm 输出。我不知道它是如何工作的。
lstm_out = lstm_out.contiguous().view(-1, self.hidden_dim)
Run Code Online (Sandbox Code Playgroud)