在查看有关姿势估计AlphaPose 的一些 pytorch 代码时,我注意到一些不熟悉的语法:
基本上,我们定义了一个Darknet
继承nn.Module
属性的类,如下所示:class Darknet(nn.Module)
这从一些配置文件重新构建了神经网络,并定义了加载预训练权重和前向传递的函数
现在,前向传递采用以下参数:
def forward(self, x, CUDA)
Run Code Online (Sandbox Code Playgroud)
我应该注意到,在类定义中 forward 是唯一具有 CUDA 属性的方法(这将在以后变得很重要)
在前向传递中,我们得到预测:
for i in range(number_of_modules):
x = self.module[i](x)
Run Code Online (Sandbox Code Playgroud)
其中module[i]
构造为:
module = nn.Sequential()
conv = nn.Conv2d(prev_fileters, filters, kernel_size, stride, pad, bias=bias)
module.add_module("conv_{0}".format(index), conv)
Run Code Online (Sandbox Code Playgroud)
然后我们调用 invoke 这个模型和(我假设)一个像这样的转发方法:
self.det_model = Darknet("yolo/cfg/yolov3-spp.cfg")
self.det_model.load_weights('models/yolo/yolov3-spp.weights')
self.det_model.cpu()
self.det_model.eval()
image = image.cpu()
prediction = self.det_model(img, CUDA = False)
Run Code Online (Sandbox Code Playgroud)
我假设最后一行是前向传递的调用,但为什么不使用.forward
? 这是pytorch特定的语法还是我缺少一些基本的python原则?
归档时间: |
|
查看次数: |
3066 次 |
最近记录: |