本文簡要介紹python語言中 torch.optim.lr_scheduler.MultiStepLR
的用法。
用法:
class torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=- 1, verbose=False)
一旦 epoch 的數量達到裏程碑之一,通過 gamma 衰減每個參數組的學習率。請注意,這種衰減可能與此調度程序外部對學習率的其他更改同時發生。當last_epoch=-1 時,設置初始 lr 為 lr。
示例
>>> # Assuming optimizer uses lr = 0.05 for all groups >>> # lr = 0.05 if epoch < 30 >>> # lr = 0.005 if 30 <= epoch < 80 >>> # lr = 0.0005 if epoch >= 80 >>> scheduler = MultiStepLR(optimizer, milestones=[30,80], gamma=0.1) >>> for epoch in range(100): >>> train(...) >>> validate(...) >>> scheduler.step()
參數:
相關用法
- Python PyTorch MultiScaleRoIAlign用法及代碼示例
- Python PyTorch MultiLabelMarginLoss用法及代碼示例
- Python PyTorch MultiplicativeLR用法及代碼示例
- Python PyTorch MultiheadAttention用法及代碼示例
- Python PyTorch MultivariateNormal用法及代碼示例
- Python PyTorch MultiheadAttentionContainer.__init__用法及代碼示例
- Python PyTorch MultiMarginLoss用法及代碼示例
- Python PyTorch Multiplexer用法及代碼示例
- Python PyTorch Multinomial用法及代碼示例
- Python PyTorch MuLawEncoding用法及代碼示例
- Python PyTorch MuLawDecoding用法及代碼示例
- Python PyTorch MaxUnpool3d用法及代碼示例
- Python PyTorch Module.buffers用法及代碼示例
- Python PyTorch Module.register_full_backward_hook用法及代碼示例
- Python PyTorch Module.named_modules用法及代碼示例
- Python PyTorch Module.parameters用法及代碼示例
- Python PyTorch MaxPool1d用法及代碼示例
- Python PyTorch Module.register_forward_hook用法及代碼示例
- Python PyTorch MetaInferGroupedPooledEmbeddingsLookup.state_dict用法及代碼示例
- Python PyTorch Module.named_parameters用法及代碼示例
- Python PyTorch MetaInferGroupedEmbeddingsLookup.named_buffers用法及代碼示例
- Python PyTorch ModuleList用法及代碼示例
- Python PyTorch MixtureSameFamily用法及代碼示例
- Python PyTorch MpSerialExecutor用法及代碼示例
- Python PyTorch MaxUnpool1d用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.optim.lr_scheduler.MultiStepLR。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。