PyTorch:如何检查训练期间某些权重是否没有改变?

mrg*_*oom 7 pytorch

如何检查 PyTorch 训练期间某些权重是否未更改?

据我了解,一种选择可以是在某些时期转储模型权重,并检查它们是否通过迭代权重进行更改,但也许有一些更简单的方法?

小智 4

有两种方法可以解决这个问题:

第一的

for name, param in model.named_parameters():
    if 'weight' in name:
        temp = torch.zeros(param.grad.shape)
        temp[param.grad != 0] += 1
        count_dict[name] += temp
Run Code Online (Sandbox Code Playgroud)

loss.backward()此步骤在您完成培训模块之后进行。字典count_dict[name]跟踪梯度更新。您可以在训练开始之前以这种方式初始化它:

for name, param in model.named_parameters():
    if 'weight' in name:
        count_dict[name] = torch.zeros(param.grad.shape)
Run Code Online (Sandbox Code Playgroud)

现在,另一种方法是注册一个钩子函数,然后创建该钩子函数,您甚至可以根据需要更新或修改渐变。这对于跟踪权重更新来说并不是必需的,但如果您想对梯度做一些事情,它就会派上用场。假设,我在这里随机稀疏梯度。

def hook_fn(grad):
    '''
    Randomly sparsify the gradients
    :param grad: Input gradient of the layer
    :return: grad_clone - the sparsified FC layer gradients
    '''
    grad_clone = grad.clone()
    temp = torch.cuda.FloatTensor(grad_clone.shape).uniform_()
    grad_clone[temp < 0.8] = 0
    return grad_clone
Run Code Online (Sandbox Code Playgroud)

在这里我给模型一个钩子。

for name, param in model.named_parameters():
    if 'weight' in name:
            param.register_hook(hook_fn)
Run Code Online (Sandbox Code Playgroud)

因此,这可能只是为您稀疏梯度,您可以通过以下方式跟踪钩子函数本身的梯度:

def hook_func(module, input, output):
    temp = torch.zeros(output.shape)
    temp[output != 0] += 1
    count_dict[module] += temp
Run Code Online (Sandbox Code Playgroud)

虽然,我不建议这样做。这在可视化前向传递特征/激活的情况下通常很有用。而且,输入和输出可能会混淆,因为梯度和参数输入和输出是相反的。