如何检查 PyTorch 训练期间某些权重是否未更改?
据我了解,一种选择可以是在某些时期转储模型权重,并检查它们是否通过迭代权重进行更改,但也许有一些更简单的方法?
小智 4
有两种方法可以解决这个问题:
第一的
for name, param in model.named_parameters():
if 'weight' in name:
temp = torch.zeros(param.grad.shape)
temp[param.grad != 0] += 1
count_dict[name] += temp
Run Code Online (Sandbox Code Playgroud)
loss.backward()此步骤在您完成培训模块之后进行。字典count_dict[name]跟踪梯度更新。您可以在训练开始之前以这种方式初始化它:
for name, param in model.named_parameters():
if 'weight' in name:
count_dict[name] = torch.zeros(param.grad.shape)
Run Code Online (Sandbox Code Playgroud)
现在,另一种方法是注册一个钩子函数,然后创建该钩子函数,您甚至可以根据需要更新或修改渐变。这对于跟踪权重更新来说并不是必需的,但如果您想对梯度做一些事情,它就会派上用场。假设,我在这里随机稀疏梯度。
def hook_fn(grad):
'''
Randomly sparsify the gradients
:param grad: Input gradient of the layer
:return: grad_clone - the sparsified FC layer gradients
'''
grad_clone = grad.clone()
temp = torch.cuda.FloatTensor(grad_clone.shape).uniform_()
grad_clone[temp < 0.8] = 0
return grad_clone
Run Code Online (Sandbox Code Playgroud)
在这里我给模型一个钩子。
for name, param in model.named_parameters():
if 'weight' in name:
param.register_hook(hook_fn)
Run Code Online (Sandbox Code Playgroud)
因此,这可能只是为您稀疏梯度,您可以通过以下方式跟踪钩子函数本身的梯度:
def hook_func(module, input, output):
temp = torch.zeros(output.shape)
temp[output != 0] += 1
count_dict[module] += temp
Run Code Online (Sandbox Code Playgroud)
虽然,我不建议这样做。这在可视化前向传递特征/激活的情况下通常很有用。而且,输入和输出可能会混淆,因为梯度和参数输入和输出是相反的。
| 归档时间: |
|
| 查看次数: |
5636 次 |
| 最近记录: |