启用 Grad
- classtorch.enable_grad(orig_func=None)[源代码]
-
一个启用梯度计算的上下文管理器。
如果之前通过
no_grad
或set_grad_enabled
禁用了梯度计算,则重新启用。这个上下文管理器是线程局部的,不会影响其他线程中的计算。
也可以用作装饰器。
注意
enable_grad 是几种可以局部启用或禁用梯度的机制之一。有关这些机制的详细信息,请参阅局部禁用梯度计算。
注意
此 API 不适用于 前向模式自动微分。
- 示例:
-
>>> x = torch.tensor([1.], requires_grad=True) >>> with torch.no_grad(): ... with torch.enable_grad(): ... y = x * 2 >>> y.requires_grad True >>> y.backward() >>> x.grad tensor([2.]) >>> @torch.enable_grad() ... def doubler(x): ... return x * 2 >>> with torch.no_grad(): ... z = doubler(x) >>> z.requires_grad True >>> @torch.enable_grad() ... def tripler(x): ... return x * 3 >>> with torch.no_grad(): ... z = tripler(x) >>> z.requires_grad True