训练 CNN 时出错:“RuntimeError:张量 a (10) 的大小必须与非单维 1 处张量 b (64) 的大小匹配”

lec*_*ose 1 python machine-learning deep-learning pytorch

我是 Pytorch 的新手,我正在尝试实现一个简单的 CNN 来识别 MNIST 图像。

我正在使用 MSE 损失作为损失函数和 SGD 作为优化器来训练网络。当我参加培训时,它给了我以下内容

warning: " UserWarning: 使用与输入大小 (torch.Size([64, 10])) 不同的目标大小 (torch.Size([64]))。这可能会因广播而导致错误的结果。请确保它们的尺寸相同。”

然后我得到以下内容

error: "RuntimeError: The size of tensor a (10) must match the size of tensor b
       (64) at non-singleton dimension 1".
Run Code Online (Sandbox Code Playgroud)

我尝试使用在其他问题中找到的一些解决方案来解决它,但似乎没有任何效果。这是我如何加载数据集的代码:

transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,),(0.5,))])

trainset = torchvision.datasets.MNIST(root='./data', train = True, transform = transform, download = True)
trainloader = torch.utils.data.DataLoader(trainset, batch_size = 64, shuffle = True)

testset = torchvision.datasets.MNIST(root='./data', train = False, transform = transform, download = True)
testloader = torch.utils.data.DataLoader(testset, batch_size = 64, shuffle = False)
Run Code Online (Sandbox Code Playgroud)

定义我的网络的代码:

    class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        #Convolutional layers
        self.conv1 = nn.Conv2d(1, 6, 5)
        self.conv2 = nn.Conv2d(6, 12, 5)
        #Fully connected layers
        self.fc1 = nn.Linear(12*4*4, 120)
        self.fc2 = nn.Linear(120, 60)
        self.out = nn.Linear(60,10)

    def forward(self, x):
        x = F.max_pool2d(F.relu(self.conv1(x)), (2,2))
        x = F.max_pool2d(F.relu(self.conv2(x)), (2,2))
        x = x.reshape(-1, 12*4*4)
        x = F.relu(self.fc1(x))         
        x = F.relu(self.fc2(x))
        x = self.out(x)
        return x
Run Code Online (Sandbox Code Playgroud)

这是训练:

net = Net()
print(net)

criterion = nn.MSELoss() 
optimizer = optim.SGD(net.parameters(), lr=0.001)
epochs = 3

for epoch in range(epochs):
    running_loss = 0;
    for images, labels in trainloader:
        optimizer.zero_grad()
        output = net(images)
        loss = criterion(output, labels)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
    else:
        print(f"Training loss: {running_loss/len(trainloader)}")

print('Finished training')
Run Code Online (Sandbox Code Playgroud)

谢谢你!

Ash*_*air 5

nn.MSELoss对于此问题,您使用的损失 ( ) 是不正确的。你应该使用nn.CrossEntropyLoss.

均方损失测量输入 x 和目标 y 之间的均方误差。这里的输入和目标自然应该具有相同的形状。

交叉熵损失计算每个图像的类别概率。输出将是一个矩阵 N x C,目标将是一个大小为 N 的向量。(N = 批量大小,C = 类数)

由于您的目标是对图像进行分类,因此您需要使用它。

在您的情况下,您的网络输出将是一个大小为 64 x 10 的矩阵,目标是一个大小为 64 的向量。输出矩阵的每一行(应用 softmax 函数后)表示该类的概率,之后交叉熵损失被计算出来。Pytorchnn.CrossEntropyLoss将 softmax 操作与损失计算结合起来。

您可以参考此处的文档,了解有关 Pytorch 如何计算损失的更多信息。