本文简要介绍python语言中 torch.autograd.functional.jvp
的用法。
用法:
torch.autograd.functional.jvp(func, inputs, v=None, create_graph=False, strict=False)
func(函数) -一个 Python 函数,它接受张量输入并返回张量元组或张量。
inputs(张量元组或者Tensor) -函数
func
的输入。v(张量元组或者Tensor) -计算雅可比向量积的向量。必须与
func
的输入大小相同。当func
的输入包含单个元素并且(如果未提供)将设置为包含单个1
的张量时,此参数是可选的。create_graph(bool,可选的) -如果
True
,输出和结果都将以可微分的方式计算。请注意,当strict
为False
时,结果不能需要梯度或与输入断开连接。默认为False
。strict(bool,可选的) -如果
True
,当我们检测到存在一个输入使得所有输出都独立于它时,将引发错误。如果False
,我们返回一个零张量作为所述输入的 jvp,这是预期的数学值。默认为False
。
- 元组:
func_output(张量或张量元组):
func(inputs)
的输出jvp(Tensors 或 Tensor 的元组):与输出形状相同的点积结果。
输出(tuple)
计算给定函数在输入给定点处的雅可比与向量
v
之间的点积的函数。示例
>>> def exp_reducer(x): ... return x.exp().sum(dim=1) >>> inputs = torch.rand(4, 4) >>> v = torch.ones(4, 4) >>> jvp(exp_reducer, inputs, v) (tensor([6.3090, 4.6742, 7.9114, 8.2106]), tensor([6.3090, 4.6742, 7.9114, 8.2106]))
>>> jvp(exp_reducer, inputs, v, create_graph=True) (tensor([6.3090, 4.6742, 7.9114, 8.2106], grad_fn=<SumBackward1>), tensor([6.3090, 4.6742, 7.9114, 8.2106], grad_fn=<SqueezeBackward1>))
>>> def adder(x, y): ... return 2 * x + 3 * y >>> inputs = (torch.rand(2), torch.rand(2)) >>> v = (torch.ones(2), torch.ones(2)) >>> jvp(adder, inputs, v) (tensor([2.2399, 2.5005]), tensor([5., 5.]))
注意
jvp 目前是通过使用向后的向后计算(有时称为双向后技巧)来计算的,因为我们目前在 PyTorch 中不支持向前模式 AD。
参数:
返回:
返回类型:
相关用法
- Python PyTorch jacobian用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch cholesky用法及代码示例
- Python PyTorch vdot用法及代码示例
- Python PyTorch ELU用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch gumbel_softmax用法及代码示例
- Python PyTorch get_tokenizer用法及代码示例
- Python PyTorch saved_tensors_hooks用法及代码示例
- Python PyTorch positive用法及代码示例
- Python PyTorch renorm用法及代码示例
- Python PyTorch AvgPool2d用法及代码示例
- Python PyTorch MaxUnpool3d用法及代码示例
- Python PyTorch Bernoulli用法及代码示例
- Python PyTorch Tensor.unflatten用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch Tensor.register_hook用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch sqrt用法及代码示例
- Python PyTorch PackageImporter.id用法及代码示例
- Python PyTorch column_stack用法及代码示例
- Python PyTorch diag用法及代码示例
- Python PyTorch skippable用法及代码示例
- Python PyTorch EndOnDiskCacheHolder用法及代码示例
- Python PyTorch trunc用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.autograd.functional.jvp。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。