torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[源代码]

将迭代器中参数的梯度裁剪到指定值。

梯度在原地进行修改。

参数
  • parameters (Iterable[Tensor] 或 Tensor) – 一个包含 Tensor 的可迭代对象或单个 Tensor,其梯度将会被归一化

  • clip_value (float) – 梯度的最大允许值。梯度会被限制在 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right]"的范围内。

  • foreach (bool) – 使用基于 foreach 的更快实现方式。如果为 None,则对于 CUDA 和 CPU 原生张量使用 foreach 实现,并在其他设备类型上静默回退到慢速实现。默认值: None