本文简要介绍python语言中 torch.optim.lr_scheduler.StepLR
的用法。
用法:
class torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=- 1, verbose=False)
每step_size epochs 衰减每个参数组的学习率。请注意,这种衰减可能与此调度程序外部对学习率的其他更改同时发生。当last_epoch=-1 时,设置初始 lr 为 lr。
示例
>>> # Assuming optimizer uses lr = 0.05 for all groups >>> # lr = 0.05 if epoch < 30 >>> # lr = 0.005 if 30 <= epoch < 60 >>> # lr = 0.0005 if 60 <= epoch < 90 >>> # ... >>> scheduler = StepLR(optimizer, step_size=30, gamma=0.1) >>> for epoch in range(100): >>> train(...) >>> validate(...) >>> scheduler.step()
参数:
相关用法
- Python PyTorch Store.num_keys用法及代码示例
- Python PyTorch Store.add用法及代码示例
- Python PyTorch StreamReader用法及代码示例
- Python PyTorch Store.delete_key用法及代码示例
- Python PyTorch Store.set用法及代码示例
- Python PyTorch Store.compare_set用法及代码示例
- Python PyTorch Store.set_timeout用法及代码示例
- Python PyTorch Store.get用法及代码示例
- Python PyTorch Store.wait用法及代码示例
- Python PyTorch StudentT用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch SummaryWriter.add_histogram用法及代码示例
- Python PyTorch ScriptModule.state_dict用法及代码示例
- Python PyTorch Softmin用法及代码示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代码示例
- Python PyTorch Softmax2d用法及代码示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代码示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代码示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代码示例
- Python PyTorch ScriptModule.parameters用法及代码示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代码示例
- Python PyTorch SummaryWriter.add_image用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_modules用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.optim.lr_scheduler.StepLR。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。