lin*_*ang 5 python machine-learning image-processing computer-vision pytorch
我正在使用PyTorch,但出现错误!我的错误代码如下:
for train_data in trainloader:
example_count += 1
if example_count == 100:
break
optimer.zero_grad()
image, label = train_data
image = image.cuda()
label = label.cuda()
out = model(image)
_, out = torch.max(out, 1)
# print(out.cpu().data.numpy())
# print(label.cpu().data.numpy())
# out = torch.zeros(4, 10).scatter_(1, out.cpu(), 1).cuda()
# label= torch.zeros(4, 10).scatter_(1, label.cpu(), 1).cuda()
l = loss(out, label)
l.bakeward()
optimer.setp()
j += 1
count += label.size(0)
acc += (out == label).sum().item()
if j % 1000 == 0:
print(j + ' step:curent accurity is %f' % (acc / count))
Run Code Online (Sandbox Code Playgroud)
追溯:
Traceback (most recent call last):
File "VGG??.py", line 178, in <module>
utils.train(testloader,model)
File "VGG??.py", line 153, in train
l=loss(out,label)
File "/home/tang/anaconda3/lib/python3.7/site-packages/torch/nn/modules/module.py", line 489, in __call__
result = self.forward(*input, **kwargs)
File "/home/tang/anaconda3/lib/python3.7/site-packages/torch/nn/modules/loss.py", line 435, in forward
return F.mse_loss(input, target, reduction=self.reduction)
File "/home/tang/anaconda3/lib/python3.7/site-packages/torch/nn/functional.py", line 2156, in mse_loss
ret = torch._C._nn.mse_loss(expanded_input, expanded_target, _Reduction.get_enum(reduction))
RuntimeError: _thnn_mse_loss_forward is not implemented for type torch.cuda.LongTensor
Run Code Online (Sandbox Code Playgroud)
我得到一个答案,在这里, Pytorch RuntimeError:“ host_softmax”未针对“ torch.cuda.LongTensor”实现
但是我不知道如何解决这个问题。
查看以下文档torch.max():
Run Code Online (Sandbox Code Playgroud)torch.max(input, dim, keepdim=False, out=None) -> (Tensor, LongTensor)返回给定维度dim 中输入张量每行的最大值。第二个返回值是找到的每个最大值(argmax)的索引位置。
你的代码行
_, out = torch.max(out, 1)
Run Code Online (Sandbox Code Playgroud)
获取模型的浮点out预测,并用于torch.max()返回最大预测的argmax = 类型long int 索引。
您收到的错误消息是您的loss函数(我猜您正在使用 softmax 的交叉熵)不支持long类型的第一个参数。
此外,你不能通过 argmax 求导数 - 所以我认为使用转换out为 float.to(torch.float)也不会给你带来任何好处。
您正在使用的损失函数内的 softmax 函数正在为您处理 argmax。
| 归档时间: |
|
| 查看次数: |
2318 次 |
| 最近记录: |