是否batch_first影响 Pytorch LSTM 中的隐藏张量?
batch_first
即如果batch_first参数为真,隐藏状态会是(numlayer*direction,num_batch,encoding_dim) 还是(num_batch,numlayer*direction,encoding_dim)
(numlayer*direction,num_batch,encoding_dim)
(num_batch,numlayer*direction,encoding_dim)
我都测试过,都没有错误。
lstm pytorch
我正在使用批量大小为 10 的批量标准化进行人脸检测,我想知道是删除批量规范层还是保留它们更好。如果最好删除它们,我可以用什么代替?
machine-learning computer-vision pytorch
pytorch ×2
computer-vision ×1
lstm ×1
machine-learning ×1