no_grad

torch.no_grad(orig_func=None)[源代码]

一个用于禁用梯度计算的上下文管理器。

在推理时禁用梯度计算非常有用,当你确定不会调用Tensor.backward()方法。这将减少内存消耗,否则这些计算会默认设置requires_grad=True

在此模式下,每个计算的结果将默认设置为requires_grad=False,即使输入具有requires_grad=True也是如此。但有一个例外:所有工厂函数或创建新张量并接受requires_grad参数的函数不会受此模式的影响。

这个上下文管理器是线程局部的,不会影响其他线程中的计算。

也可以用作装饰器。

注意

No-grad 是几种可以局部启用或禁用梯度的机制之一。有关这些机制的详细信息,请参阅局部禁用梯度计算

注意

此 API 不适用于 前向模式自动微分。如果你想要为某个计算禁用前向模式自动微分,可以将双曲张量解包。

示例:
>>> x = torch.tensor([1.], requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False
>>> @torch.no_grad()
... def doubler(x):
...     return x * 2
>>> z = doubler(x)
>>> z.requires_grad
False
>>> @torch.no_grad()
... def tripler(x):
...     return x * 3
>>> z = tripler(x)
>>> z.requires_grad
False
>>> # factory function exception
>>> with torch.no_grad():
...     a = torch.nn.Parameter(torch.rand(10))
>>> a.requires_grad
True
本页目录