小编Inf*_*yyy的帖子

如何在 Pytorch 中迭代层

假设我有一个名为m. 现在我没有关于这个网络层数的先验信息。如何创建一个 for 循环来遍历其层?我正在寻找类似的东西:

Weight=[]
for layer in m._modules:
    Weight.append(layer.weight)
Run Code Online (Sandbox Code Playgroud)

python machine-learning neural-network deep-learning pytorch

11
推荐指数
3
解决办法
2万
查看次数

Pytorch 中的批量学习是如何进行的?

当您查看 pytorch 代码内部如何构建网络架构时,我们需要扩展torch.nn.Module和 内部__init__,我们定义了网络模块,pytorch 将跟踪这些模块的参数梯度。然后在forward函数内部,我们定义应该如何为我们的网络完成前向传递。

我在这里不明白的是批量学习将如何发生。在包括forward函数在内的上述定义中,我们都不关心网络输入的批次维度。为了执行批量学习,我们唯一需要设置的是向输入添加一个与批量大小相对应的额外维度,但如果我们使用批量学习,网络定义中的任何内容都不会改变。至少,这是我在这里的代码中看到的

因此,如果到目前为止我解释的所有内容都是正确的(如果您让我知道我是否误解了某些内容,我将不胜感激),如果在我们的网络类的定义中没有声明关于批量大小的任何内容,则如何执行批量学习(继承的类torch.nn.Module)?具体来说,我很想知道当我们只设置nn.MSELoss批量维度时,如何在pytorch中实现批量梯度下降算法。

python neural-network pytorch

5
推荐指数
1
解决办法
2029
查看次数

了解 PyTorch 张量形状

我有一个关于我们在 PyTorch 中定义的张量形状的简单问题。假设我说:

input = torch.randn(32, 35)
Run Code Online (Sandbox Code Playgroud)

这将创建一个 32 行 35 列的矩阵。现在,当我定义:

input2 = torch.randn(1,2,32, 35)
Run Code Online (Sandbox Code Playgroud)

关于新矩阵 input2 的维度,我能说些什么?我如何在这里定义行和列?我的意思是我有两个由张量打包的形状为 32*35 的矩阵吗?

我想更好地理解这背后的几何。谢谢。

python machine-learning pytorch tensor

4
推荐指数
2
解决办法
2223
查看次数

如何在Django 1.6中使用time.strftime

我是django 1.6的新用户之一,但是我在此django版本中注意到的一件非常糟糕的事情是time.strftime(“%H:%M:%S”)无法正常工作,并且给了我错误的时间查看。是否有其他方法可以在django视图中获得正确的时间?

注意:如果在python 3中键入print(time.strftime(“%H:%M:%S”)),您会看到正确的时间,但在Django 1.6中则不正确

谢谢。

python django

3
推荐指数
1
解决办法
5630
查看次数

std :: vector的.at()函数到底做了什么?

在这两种方法之间向向量插入值有什么区别:

vector<int> vectorlist (12);
vectorlist[12]=23;
Run Code Online (Sandbox Code Playgroud)

与:

vector<int> vectorlist (12);
vectorlist.at(12)=23;
Run Code Online (Sandbox Code Playgroud)

c++

0
推荐指数
1
解决办法
7367
查看次数