torch.nn.utils.clip_grad_norm
- torch.nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2.0, error_if_nonfinite=False, foreach=None)[源代码]
-
对参数迭代器的梯度范数进行裁剪。
警告
现在建议不要使用此方法,改为使用
torch.nn.utils.clip_grad_norm_()
。- 返回类型
对参数迭代器的梯度范数进行裁剪。
警告
现在建议不要使用此方法,改为使用torch.nn.utils.clip_grad_norm_()
。