本文简要介绍python语言中 torch.distributed.autograd.get_gradients
的用法。
用法:
torch.distributed.autograd.get_gradients(context_id: int) → Dict[Tensor, Tensor]
context_id(int) -我们应该为其检索梯度的 autograd 上下文 id。
一个映射,其中键是张量,值是该张量的相关梯度。
检索从张量到适当梯度的映射,该张量在与给定
context_id
对应的提供的上下文中累积,作为分布式 autograd 反向传递的一部分。>>> import torch.distributed.autograd as dist_autograd >>> with dist_autograd.context() as context_id: >>> t1 = torch.rand((3, 3), requires_grad=True) >>> t2 = torch.rand((3, 3), requires_grad=True) >>> loss = t1 + t2 >>> dist_autograd.backward(context_id, [loss.sum()]) >>> grads = dist_autograd.get_gradients(context_id) >>> print(grads[t1]) >>> print(grads[t2])
例子:
参数:
返回:
相关用法
- Python PyTorch get_graph_node_names用法及代码示例
- Python PyTorch get_tokenizer用法及代码示例
- Python PyTorch get_ignored_functions用法及代码示例
- Python PyTorch get_default_dtype用法及代码示例
- Python PyTorch get_testing_overrides用法及代码示例
- Python PyTorch generate_sp_model用法及代码示例
- Python PyTorch ge用法及代码示例
- Python PyTorch gumbel_softmax用法及代码示例
- Python PyTorch gammainc用法及代码示例
- Python PyTorch gradient用法及代码示例
- Python PyTorch gammaincc用法及代码示例
- Python PyTorch global_unstructured用法及代码示例
- Python PyTorch greedy_partition用法及代码示例
- Python PyTorch gammaln用法及代码示例
- Python PyTorch gt用法及代码示例
- Python PyTorch gather用法及代码示例
- Python PyTorch gcd用法及代码示例
- Python PyTorch gather_object用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
- Python PyTorch cholesky用法及代码示例
- Python PyTorch vdot用法及代码示例
- Python PyTorch ELU用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch saved_tensors_hooks用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.distributed.autograd.get_gradients。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。