lec*_*ose 1 python machine-learning deep-learning pytorch
我是 Pytorch 的新手,我正在尝试实现一个简单的 CNN 来识别 MNIST 图像。
我正在使用 MSE 损失作为损失函数和 SGD 作为优化器来训练网络。当我参加培训时,它给了我以下内容
warning: " UserWarning: 使用与输入大小 (torch.Size([64, 10])) 不同的目标大小 (torch.Size([64]))。这可能会因广播而导致错误的结果。请确保它们的尺寸相同。”
然后我得到以下内容
error: "RuntimeError: The size of tensor a (10) must match the size of tensor b
(64) at non-singleton dimension 1".
Run Code Online (Sandbox Code Playgroud)
我尝试使用在其他问题中找到的一些解决方案来解决它,但似乎没有任何效果。这是我如何加载数据集的代码:
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,),(0.5,))])
trainset = torchvision.datasets.MNIST(root='./data', train = True, transform = transform, download = True)
trainloader = torch.utils.data.DataLoader(trainset, batch_size = 64, shuffle = True)
testset = torchvision.datasets.MNIST(root='./data', train = False, transform = transform, download = True)
testloader = torch.utils.data.DataLoader(testset, batch_size = 64, shuffle = False)
Run Code Online (Sandbox Code Playgroud)
定义我的网络的代码:
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
#Convolutional layers
self.conv1 = nn.Conv2d(1, 6, 5)
self.conv2 = nn.Conv2d(6, 12, 5)
#Fully connected layers
self.fc1 = nn.Linear(12*4*4, 120)
self.fc2 = nn.Linear(120, 60)
self.out = nn.Linear(60,10)
def forward(self, x):
x = F.max_pool2d(F.relu(self.conv1(x)), (2,2))
x = F.max_pool2d(F.relu(self.conv2(x)), (2,2))
x = x.reshape(-1, 12*4*4)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.out(x)
return x
Run Code Online (Sandbox Code Playgroud)
这是训练:
net = Net()
print(net)
criterion = nn.MSELoss()
optimizer = optim.SGD(net.parameters(), lr=0.001)
epochs = 3
for epoch in range(epochs):
running_loss = 0;
for images, labels in trainloader:
optimizer.zero_grad()
output = net(images)
loss = criterion(output, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
else:
print(f"Training loss: {running_loss/len(trainloader)}")
print('Finished training')
Run Code Online (Sandbox Code Playgroud)
谢谢你!
nn.MSELoss
对于此问题,您使用的损失 ( ) 是不正确的。你应该使用nn.CrossEntropyLoss
.
均方损失测量输入 x 和目标 y 之间的均方误差。这里的输入和目标自然应该具有相同的形状。
交叉熵损失计算每个图像的类别概率。输出将是一个矩阵 N x C,目标将是一个大小为 N 的向量。(N = 批量大小,C = 类数)
由于您的目标是对图像进行分类,因此您需要使用它。
在您的情况下,您的网络输出将是一个大小为 64 x 10 的矩阵,目标是一个大小为 64 的向量。输出矩阵的每一行(应用 softmax 函数后)表示该类的概率,之后交叉熵损失被计算出来。Pytorchnn.CrossEntropyLoss
将 softmax 操作与损失计算结合起来。
您可以参考此处的文档,了解有关 Pytorch 如何计算损失的更多信息。