当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch hvp用法及代码示例


本文简要介绍python语言中 torch.autograd.functional.hvp 的用法。

用法:

torch.autograd.functional.hvp(func, inputs, v=None, create_graph=False, strict=False)

参数

  • func(函数) -一个 Python 函数,它接受张量输入并返回一个带有单个元素的张量。

  • inputs(张量元组或者Tensor) -函数 func 的输入。

  • v(张量元组或者Tensor) -计算 Hessian 向量积的向量。必须与 func 的输入大小相同。当 func 的输入包含单个元素并且(如果未提供)将设置为包含单个 1 的张量时,此参数是可选的。

  • create_graph(bool,可选的) -如果 True ,输出和结果都将以可微分的方式计算。请注意,当 strictFalse 时,结果不能需要梯度或与输入断开连接。默认为 False

  • strict(bool,可选的) -如果 True ,当我们检测到存在一个输入使得所有输出都独立于它时,将引发错误。如果 False ,我们返回一个零张量作为所述输入的 hvp,这是预期的数学值。默认为 False

返回

元组:

func_output(张量或张量元组):func(inputs) 的输出

hvp(张量或张量的元组):与输入形状相同的点积结果。

返回类型

输出(tuple)

计算给定标量函数的 Hessian 矩阵和向量 v 在输入给定点处的点积的函数。

示例

>>> def pow_reducer(x):
...   return x.pow(3).sum()
>>> inputs = torch.rand(2, 2)
>>> v = torch.ones(2, 2)
>>> hvp(pow_reducer, inputs, v)
(tensor(0.1448),
 tensor([[2.0239, 1.6456],
         [2.4988, 1.4310]]))
>>> hvp(pow_reducer, inputs, v, create_graph=True)
(tensor(0.1448, grad_fn=<SumBackward0>),
 tensor([[2.0239, 1.6456],
         [2.4988, 1.4310]], grad_fn=<MulBackward0>))
>>> def pow_adder_reducer(x, y):
...   return (2 * x.pow(2) + 3 * y.pow(2)).sum()
>>> inputs = (torch.rand(2), torch.rand(2))
>>> v = (torch.zeros(2), torch.ones(2))
>>> hvp(pow_adder_reducer, inputs, v)
(tensor(2.3030),
 (tensor([0., 0.]),
  tensor([6., 6.])))

注意

由于向后模式 AD 限制,此函数比 vhp 慢得多。如果你的函数是两次连续可微的,那么 hvp = vhp.t()。因此,如果您知道您的函数满足此条件,则应使用 vhp 代替,这在当前实现中要快得多。

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.autograd.functional.hvp。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。