本文簡要介紹python語言中 torch.distributed.autograd.backward
的用法。
用法:
torch.distributed.autograd.backward(context_id: int, roots: List[Tensor], retain_graph=False) → None
使用提供的根啟動分布式反向傳遞。這目前實現了 FAST 模式算法,該算法假定在同一個分布式 autograd 上下文中跨工作人員發送的所有 RPC 消息將在後向傳遞期間成為 autograd 圖的一部分。
我們使用提供的根來發現 autograd 圖並計算適當的依賴關係。此方法阻塞,直到完成整個 autograd 計算。
我們在每個節點上適當的
torch.distributed.autograd.context
中累積梯度。根據調用torch.distributed.autograd.backward()
時傳入的context_id
,查找要使用的 autograd 上下文。如果沒有與給定 ID 對應的有效自動分級上下文,我們會拋出錯誤。您可以使用get_gradients()
API 檢索累積的梯度。>>> import torch.distributed.autograd as dist_autograd >>> with dist_autograd.context() as context_id: >>> pred = model.forward() >>> loss = loss_func(pred, loss) >>> dist_autograd.backward(context_id, loss)
例子:
參數:
相關用法
- Python PyTorch batched_powerSGD_hook用法及代碼示例
- Python PyTorch baddbmm用法及代碼示例
- Python PyTorch bincount用法及代碼示例
- Python PyTorch bitwise_right_shift用法及代碼示例
- Python PyTorch bernoulli用法及代碼示例
- Python PyTorch bitwise_and用法及代碼示例
- Python PyTorch bitwise_not用法及代碼示例
- Python PyTorch binary_cross_entropy用法及代碼示例
- Python PyTorch bitwise_xor用法及代碼示例
- Python PyTorch binary_cross_entropy_with_logits用法及代碼示例
- Python PyTorch bleu_score用法及代碼示例
- Python PyTorch broadcast_tensors用法及代碼示例
- Python PyTorch build_vocab_from_iterator用法及代碼示例
- Python PyTorch broadcast_object_list用法及代碼示例
- Python PyTorch broadcast_shapes用法及代碼示例
- Python PyTorch bitwise_or用法及代碼示例
- Python PyTorch bitwise_left_shift用法及代碼示例
- Python PyTorch bf16_compress_wrapper用法及代碼示例
- Python PyTorch bmm用法及代碼示例
- Python PyTorch broadcast_to用法及代碼示例
- Python PyTorch bf16_compress_hook用法及代碼示例
- Python PyTorch bucketize用法及代碼示例
- Python PyTorch block_diag用法及代碼示例
- Python PyTorch frexp用法及代碼示例
- Python PyTorch jvp用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.distributed.autograd.backward。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。