在没有 .forward() 的情况下调用 forward 函数

Edo*_*Kim 6 python pytorch

在查看有关姿势估计AlphaPose 的一些 pytorch 代码时,我注意到一些不熟悉的语法:

基本上,我们定义了一个Darknet继承nn.Module属性的类,如下所示:class Darknet(nn.Module)

这从一些配置文件重新构建了神经网络,并定义了加载预训练权重和前向传递的函数

现在,前向传递采用以下参数:

def forward(self, x, CUDA)
Run Code Online (Sandbox Code Playgroud)

我应该注意到,在类定义中 forward 是唯一具有 CUDA 属性的方法(这将在以后变得很重要)

在前向传递中,我们得到预测:

for i in range(number_of_modules):
     x = self.module[i](x)
Run Code Online (Sandbox Code Playgroud)

其中module[i]构造为:

module = nn.Sequential()
conv = nn.Conv2d(prev_fileters, filters, kernel_size, stride, pad, bias=bias)
module.add_module("conv_{0}".format(index), conv)
Run Code Online (Sandbox Code Playgroud)

然后我们调用 invoke 这个模型和(我假设)一个像这样的转发方法:

self.det_model = Darknet("yolo/cfg/yolov3-spp.cfg")
self.det_model.load_weights('models/yolo/yolov3-spp.weights')
self.det_model.cpu()
self.det_model.eval()

image = image.cpu()
prediction = self.det_model(img, CUDA = False)
Run Code Online (Sandbox Code Playgroud)

我假设最后一行是前向传递的调用,但为什么不使用.forward? 这是pytorch特定的语法还是我缺少一些基本的python原则?

Uma*_*pta 12

这不是特定于火炬的。当您调用某个东西时,class_object(fn params)它会调用__call__该类的方法。

如果你挖掘了Torch的代码,特别是nn.Module你会看到它在__call__内部调用 forward 但处理了 pytorch 允许的钩子和状态。因此,当您呼叫时,self.det_model(img, cuda)您仍然在呼叫前向。

此处查看 nn.module 的代码。