本文簡要介紹python語言中 torch.distributed.rpc.shutdown
的用法。
用法:
torch.distributed.rpc.shutdown(graceful=True)
graceful(bool) -是否進行正常關機。如果為 True,這將 1) 等到
UserRRefs
沒有待處理的係統消息並刪除它們; 2) 阻塞,直到所有本地和遠程 RPC 進程都到達此方法並等待所有未完成的工作完成。關閉 RPC 代理,然後銷毀 RPC 代理。這會阻止本地代理接受未完成的請求,並通過終止所有 RPC 線程來關閉 RPC 框架。如果
graceful=True
,這將阻塞,直到所有本地和遠程 RPC 進程到達此方法並等待所有未完成的工作完成。否則,如果graceful=False
,這是本地關閉,它不會等待其他 RPC 進程到達此方法。警告
對於
rpc_async()
返回的Future
對象,不應在shutdown()
之後調用future.wait()
。確保
MASTER_ADDR
和MASTER_PORT
在兩個 worker 上都正確設置。有關詳細信息,請參閱init_process_group()
API。例如,>>> export MASTER_ADDR=localhost >>> export MASTER_PORT=5678
然後在兩個不同的進程中運行以下代碼:
>>> # On worker 0: >>> import torch >>> import torch.distributed.rpc as rpc >>> rpc.init_rpc("worker0", rank=0, world_size=2) >>> # do some work >>> result = rpc.rpc_sync("worker1", torch.add, args=(torch.ones(1), 1)) >>> # ready to shutdown >>> rpc.shutdown()
>>> # On worker 1: >>> import torch.distributed.rpc as rpc >>> rpc.init_rpc("worker1", rank=1, world_size=2) >>> # wait for worker 0 to finish work, and then shutdown. >>> rpc.shutdown()
例子:
參數:
相關用法
- Python PyTorch sharded_model_copy用法及代碼示例
- Python PyTorch saved_tensors_hooks用法及代碼示例
- Python PyTorch sqrt用法及代碼示例
- Python PyTorch skippable用法及代碼示例
- Python PyTorch squeeze用法及代碼示例
- Python PyTorch square用法及代碼示例
- Python PyTorch save_on_cpu用法及代碼示例
- Python PyTorch scatter_object_list用法及代碼示例
- Python PyTorch skip_init用法及代碼示例
- Python PyTorch simple_space_split用法及代碼示例
- Python PyTorch sum用法及代碼示例
- Python PyTorch sub用法及代碼示例
- Python PyTorch sparse_csr_tensor用法及代碼示例
- Python PyTorch sentencepiece_numericalizer用法及代碼示例
- Python PyTorch symeig用法及代碼示例
- Python PyTorch sinh用法及代碼示例
- Python PyTorch sinc用法及代碼示例
- Python PyTorch std_mean用法及代碼示例
- Python PyTorch spectral_norm用法及代碼示例
- Python PyTorch slogdet用法及代碼示例
- Python PyTorch symbolic_trace用法及代碼示例
- Python PyTorch sgn用法及代碼示例
- Python PyTorch set_flush_denormal用法及代碼示例
- Python PyTorch set_default_dtype用法及代碼示例
- Python PyTorch signbit用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.distributed.rpc.shutdown。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。