本文简要介绍python语言中 torch.distributed.autograd.backward
的用法。
用法:
torch.distributed.autograd.backward(context_id: int, roots: List[Tensor], retain_graph=False) → None
使用提供的根启动分布式反向传递。这目前实现了 FAST 模式算法,该算法假定在同一个分布式 autograd 上下文中跨工作人员发送的所有 RPC 消息将在后向传递期间成为 autograd 图的一部分。
我们使用提供的根来发现 autograd 图并计算适当的依赖关系。此方法阻塞,直到完成整个 autograd 计算。
我们在每个节点上适当的
torch.distributed.autograd.context
中累积梯度。根据调用torch.distributed.autograd.backward()
时传入的context_id
,查找要使用的 autograd 上下文。如果没有与给定 ID 对应的有效自动分级上下文,我们会抛出错误。您可以使用get_gradients()
API 检索累积的梯度。>>> import torch.distributed.autograd as dist_autograd >>> with dist_autograd.context() as context_id: >>> pred = model.forward() >>> loss = loss_func(pred, loss) >>> dist_autograd.backward(context_id, loss)
例子:
参数:
相关用法
- Python PyTorch batched_powerSGD_hook用法及代码示例
- Python PyTorch baddbmm用法及代码示例
- Python PyTorch bincount用法及代码示例
- Python PyTorch bitwise_right_shift用法及代码示例
- Python PyTorch bernoulli用法及代码示例
- Python PyTorch bitwise_and用法及代码示例
- Python PyTorch bitwise_not用法及代码示例
- Python PyTorch binary_cross_entropy用法及代码示例
- Python PyTorch bitwise_xor用法及代码示例
- Python PyTorch binary_cross_entropy_with_logits用法及代码示例
- Python PyTorch bleu_score用法及代码示例
- Python PyTorch broadcast_tensors用法及代码示例
- Python PyTorch build_vocab_from_iterator用法及代码示例
- Python PyTorch broadcast_object_list用法及代码示例
- Python PyTorch broadcast_shapes用法及代码示例
- Python PyTorch bitwise_or用法及代码示例
- Python PyTorch bitwise_left_shift用法及代码示例
- Python PyTorch bf16_compress_wrapper用法及代码示例
- Python PyTorch bmm用法及代码示例
- Python PyTorch broadcast_to用法及代码示例
- Python PyTorch bf16_compress_hook用法及代码示例
- Python PyTorch bucketize用法及代码示例
- Python PyTorch block_diag用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.distributed.autograd.backward。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。