GIR*_*yal 4 deep-learning conv-neural-network pytorch torchvision
在这个 pytorch ResNet 代码示例中,他们在第 44 行将下采样定义为变量。第 58 行将其用作函数。作为 CNN 的观点和 Python 代码的观点,这个下采样在这里是如何工作的。
代码示例:pytorch ResNet
我搜索了下采样是否是任何 pytorch 内置函数。但事实并非如此。
class BasicBlock(nn.Module):
expansion = 1
def __init__(self, inplanes, planes, stride=1, downsample=None, groups=1, norm_layer=None):
super(BasicBlock, self).__init__()
if norm_layer is None:
norm_layer = nn.BatchNorm2d
if groups != 1:
raise ValueError('BasicBlock only supports groups=1')
# Both self.conv1 and self.downsample layers downsample the input when stride != 1
self.conv1 = conv3x3(inplanes, planes, stride)
self.bn1 = norm_layer(planes)
self.relu = nn.ReLU(inplace=True)
self.conv2 = conv3x3(planes, planes)
self.bn2 = norm_layer(planes)
self.downsample = downsample
self.stride = stride
def forward(self, x):
identity = x
out = self.conv1(x)
out = self.bn1(out)
out = self.relu(out)
out = self.conv2(out)
out = self.bn2(out)
if self.downsample is not None:
identity = self.downsample(x)
out += identity
out = self.relu(out)
return out
Run Code Online (Sandbox Code Playgroud)
如果您查看原始 ResNet 论文 ( http://openaccess.thecvf.com/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf ),他们使用跨步卷积对图像进行下采样。使用这些跨步卷积自动对主路径进行下采样,就像在您的代码中所做的那样。残差路径使用 (a) 添加零条目的身份映射以不添加额外参数,或 (b) 具有相同步幅参数的 1x1 卷积。
第二个选项可能如下所示:
if downsample:
self.downsample = conv1x1(inplanes, planes, strides)
Run Code Online (Sandbox Code Playgroud)
在此 ResNet 示例中,当我们定义 BasicBlock 类时,我们将 downsample 作为构造函数参数传递。
def __init__(self, inplanes, planes, stride=1, downsample=None, groups=1, norm_layer=None):
Run Code Online (Sandbox Code Playgroud)
如果我们不向类传递任何内容downsample = None
,那么结果身份不会改变。
当我们downsample = "some convolution layer"
作为类构造函数参数传递时,它将通过传递的卷积层对身份进行下采样以成功执行加法。该层将通过如上所述的代码对身份进行下采样
if self.downsample is not None:
identity = self.downsample(x)
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
6216 次 |
最近记录: |