torch.autograd.functional.hvp
- torch.autograd.functional.hvp(func, inputs, v=None, create_graph=False, strict=False)[源代码]
-
计算标量函数的海森矩阵与向量
v
在指定点的点积。- 参数
-
-
func(函数)– 一个接受张量输入并返回包含单一元素的张量的 Python 函数。
-
v (元组 of Tensors 或 Tensor) – 用于计算 Hessian 向量积的向量。必须与
func
的输入大小相同。当func
的输入包含单个元素时,此参数是可选的;如果未提供,则将其设置为一个包含单个1
的 Tensor。 -
create_graph (bool, 可选) – 如果为
True
,则输出和结果将以可微分的方式计算。需要注意的是,当strict
为False
时,结果不能需要梯度或与输入断开连接。默认值为False
。 -
strict (bool, 可选) – 如果设置为
True
,当检测到某个输入对所有输出没有影响时会引发错误。如果设置为False
,则对于这样的输入返回一个全零张量作为 hvp 结果,这是数学上的期望值。默认为False
。
-
- 返回值
-
- 包含元组:
-
func_output (张量的元组或单个张量):
func(inputs)
的输出hvp (元组或 Tensor): 点积结果,与输入形状相同。
- 返回类型
-
输出 (元组)
示例
>>> def pow_reducer(x): ... return x.pow(3).sum() >>> inputs = torch.rand(2, 2) >>> v = torch.ones(2, 2) >>> hvp(pow_reducer, inputs, v) (tensor(0.1448), tensor([[2.0239, 1.6456], [2.4988, 1.4310]]))
>>> hvp(pow_reducer, inputs, v, create_graph=True) (tensor(0.1448, grad_fn=<SumBackward0>), tensor([[2.0239, 1.6456], [2.4988, 1.4310]], grad_fn=<MulBackward0>))
>>> def pow_adder_reducer(x, y): ... return (2 * x.pow(2) + 3 * y.pow(2)).sum() >>> inputs = (torch.rand(2), torch.rand(2)) >>> v = (torch.zeros(2), torch.ones(2)) >>> hvp(pow_adder_reducer, inputs, v) (tensor(2.3030), (tensor([0., 0.]), tensor([6., 6.])))
注意
由于反向模式自动微分的限制,此函数比vhp慢得多。如果您的函数是二次连续可微的,则 hvp 等于 vhp.t()。因此,如果您知道您的函数满足这个条件,建议使用 vhp,因为它在当前实现中要快得多。