本文简要介绍python语言中 torchrec.distributed.dist_data.SequenceEmbeddingAllToAll
的用法。
用法:
class torchrec.distributed.dist_data.SequenceEmbeddingAllToAll(pg: torch._C._distributed_c10d.ProcessGroup, features_per_rank: List[int], device: Optional[torch.device] = None)
pg(dist.ProcessGroup) -AlltoAll 通信发生的进程组。
features_per_rank(List[int]) -每个等级的特征数量列表。
device(可选的[torch.device]) -将分配缓冲区的设备。
基础:
torch.nn.modules.module.Module
根据拆分将序列嵌入重新分配到
ProcessGroup
。例子:
init_distributed(rank=rank, size=2, backend="nccl") pg = dist.new_group(backend="nccl") features_per_rank = [4, 4] m = SequenceEmbeddingAllToAll(pg, features_per_rank) local_embs = torch.rand((6, 2)) sharding_ctx: SequenceShardingContext output = m( local_embs=local_embs, lengths=sharding_ctx.lengths_after_input_dist, input_splits=sharding_ctx.input_splits, output_splits=sharding_ctx.output_splits, unbucketize_permute_tensor=None, ) tensor = output.wait()
参数:
相关用法
- Python PyTorch SequentialLR用法及代码示例
- Python PyTorch Sequential用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch SummaryWriter.add_histogram用法及代码示例
- Python PyTorch ScriptModule.state_dict用法及代码示例
- Python PyTorch Softmin用法及代码示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代码示例
- Python PyTorch Softmax2d用法及代码示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代码示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代码示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代码示例
- Python PyTorch ScriptModule.parameters用法及代码示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代码示例
- Python PyTorch SummaryWriter.add_image用法及代码示例
- Python PyTorch Store.num_keys用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_modules用法及代码示例
- Python PyTorch SummaryWriter.add_hparams用法及代码示例
- Python PyTorch ScriptModule.register_forward_hook用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.state_dict用法及代码示例
- Python PyTorch ScriptModule.modules用法及代码示例
- Python PyTorch SummaryWriter.__init__用法及代码示例
- Python PyTorch SparseArch用法及代码示例
- Python PyTorch ShardedEmbeddingCollection.named_parameters用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torchrec.distributed.dist_data.SequenceEmbeddingAllToAll。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。