小编dol*_*dnh的帖子

PyTorch:学习率调度程序

如何将学习率调度程序与以下优化程序一起使用?

optimizer = torch.optim.Adam(optim_params,betas=(args.momentum, args.beta), weight_decay=args.weight_decay)
Run Code Online (Sandbox Code Playgroud)

我已经编写了以下调度程序:

scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=100, gamma=0.9)
Run Code Online (Sandbox Code Playgroud)

我不清楚是否应该执行调度程序或优化程序。我应该采取以下顺序执行以下操作?

optimizer.zero_grad()
scheduler.step()
optimizer.step()
Run Code Online (Sandbox Code Playgroud)

python machine-learning pytorch learning-rate

4
推荐指数
1
解决办法
63
查看次数

标签 统计

learning-rate ×1

machine-learning ×1

python ×1

pytorch ×1