當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch uniform_partition用法及代碼示例


本文簡要介紹python語言中 torchrec.distributed.planner.partitioners.uniform_partition 的用法。

用法:

torchrec.distributed.planner.partitioners.uniform_partition(num_partitions: int, sharding_options: List[torchrec.distributed.planner.types.ShardingOption], mem_cap: List[torchrec.distributed.planner.types.Storage], shard_idxes: Optional[List[Tuple[int, int]]] = None) → List[List[Tuple[int, int]]]

為每個等級分配一個分片。

例子:

sharding_options = [
    [0,1,2,3],
    [0,1,2,3],
]
# with num_partitions=4

# The final output would be:
[
    partition_0 = [(0,0),(1,0)]
    partition_1 = [(0,1),(1,1)]
    partition_2 = [(0,2),(1,2)]
    partition_3 = [(0,3),(1,3)]
]

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torchrec.distributed.planner.partitioners.uniform_partition。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。