本文簡要介紹python語言中 torch.distributed.autograd.get_gradients
的用法。
用法:
torch.distributed.autograd.get_gradients(context_id: int) → Dict[Tensor, Tensor]
context_id(int) -我們應該為其檢索梯度的 autograd 上下文 id。
一個映射,其中鍵是張量,值是該張量的相關梯度。
檢索從張量到適當梯度的映射,該張量在與給定
context_id
對應的提供的上下文中累積,作為分布式 autograd 反向傳遞的一部分。>>> import torch.distributed.autograd as dist_autograd >>> with dist_autograd.context() as context_id: >>> t1 = torch.rand((3, 3), requires_grad=True) >>> t2 = torch.rand((3, 3), requires_grad=True) >>> loss = t1 + t2 >>> dist_autograd.backward(context_id, [loss.sum()]) >>> grads = dist_autograd.get_gradients(context_id) >>> print(grads[t1]) >>> print(grads[t2])
例子:
參數:
返回:
相關用法
- Python PyTorch get_graph_node_names用法及代碼示例
- Python PyTorch get_tokenizer用法及代碼示例
- Python PyTorch get_ignored_functions用法及代碼示例
- Python PyTorch get_default_dtype用法及代碼示例
- Python PyTorch get_testing_overrides用法及代碼示例
- Python PyTorch generate_sp_model用法及代碼示例
- Python PyTorch ge用法及代碼示例
- Python PyTorch gumbel_softmax用法及代碼示例
- Python PyTorch gammainc用法及代碼示例
- Python PyTorch gradient用法及代碼示例
- Python PyTorch gammaincc用法及代碼示例
- Python PyTorch global_unstructured用法及代碼示例
- Python PyTorch greedy_partition用法及代碼示例
- Python PyTorch gammaln用法及代碼示例
- Python PyTorch gt用法及代碼示例
- Python PyTorch gather用法及代碼示例
- Python PyTorch gcd用法及代碼示例
- Python PyTorch gather_object用法及代碼示例
- Python PyTorch frexp用法及代碼示例
- Python PyTorch jvp用法及代碼示例
- Python PyTorch cholesky用法及代碼示例
- Python PyTorch vdot用法及代碼示例
- Python PyTorch ELU用法及代碼示例
- Python PyTorch ScaledDotProduct.__init__用法及代碼示例
- Python PyTorch saved_tensors_hooks用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.distributed.autograd.get_gradients。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。