本文簡要介紹python語言中 torchrec.distributed.dist_data.PooledEmbeddingsAllToAll
的用法。
用法:
class torchrec.distributed.dist_data.PooledEmbeddingsAllToAll(pg: torch._C._distributed_c10d.ProcessGroup, dim_sum_per_rank: List[int], device: Optional[torch.device] = None, callbacks: Optional[List[Callable[[torch.Tensor], torch.Tensor]]] = None)
pg(dist.ProcessGroup) -ProcessGroup 用於AlltoAll 通信。
dim_sum_per_rank(List[int]) -每個等級中嵌入的特征數(維度總和)。
device(可選的[torch.device]) -將分配緩衝區的設備。
callbacks(可選的[List[可調用[[torch.Tensor],torch.Tensor]]]) -
基礎:
torch.nn.modules.module.Module
根據
dim_sum_per_rank
對帶有ProcessGroup
的張量鍵進行分批和收集。實現利用
alltoall_pooled
操作。例子:
dim_sum_per_rank = [2, 1] a2a = PooledEmbeddingsAllToAll(pg, dim_sum_per_rank, device) t0 = torch.rand((6, 2)) t1 = torch.rand((6, 1)) rank0_output = a2a(t0).wait() rank1_output = a2a(t1).wait() print(rank0_output.size()) # torch.Size([3, 3]) print(rank1_output.size()) # torch.Size([3, 3])
參數:
相關用法
- Python PyTorch PooledEmbeddingsReduceScatter用法及代碼示例
- Python PyTorch PoissonNLLLoss用法及代碼示例
- Python PyTorch Poisson用法及代碼示例
- Python PyTorch PackageImporter.id用法及代碼示例
- Python PyTorch Proxy用法及代碼示例
- Python PyTorch PixelShuffle用法及代碼示例
- Python PyTorch Pipe用法及代碼示例
- Python PyTorch ParagraphAggregator用法及代碼示例
- Python PyTorch PackageExporter.register_extern_hook用法及代碼示例
- Python PyTorch Perceptron用法及代碼示例
- Python PyTorch ParallelReadConcat用法及代碼示例
- Python PyTorch ParameterList用法及代碼示例
- Python PyTorch PairwiseDistance用法及代碼示例
- Python PyTorch ParquetDataFrameLoader用法及代碼示例
- Python PyTorch PackageExporter.register_intern_hook用法及代碼示例
- Python PyTorch PixelUnshuffle用法及代碼示例
- Python PyTorch ParameterDict用法及代碼示例
- Python PyTorch PitchShift用法及代碼示例
- Python PyTorch Pareto用法及代碼示例
- Python PyTorch PackageExporter.close用法及代碼示例
- Python PyTorch PackageExporter.register_mock_hook用法及代碼示例
- Python PyTorch PReLU用法及代碼示例
- Python PyTorch frexp用法及代碼示例
- Python PyTorch jvp用法及代碼示例
- Python PyTorch cholesky用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torchrec.distributed.dist_data.PooledEmbeddingsAllToAll。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。