当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch MultiStepLR用法及代码示例


本文简要介绍python语言中 torch.optim.lr_scheduler.MultiStepLR 的用法。

用法:

class torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=- 1, verbose=False)

参数

  • optimizer(Optimizer) -包装优化器。

  • milestones(list) -时代 index 列表。一定要增加。

  • gamma(float) -学习率衰减的乘法因子。默认值:0.1。

  • last_epoch(int) -上一个纪元的索引。默认值:-1。

  • verbose(bool) -如果 True ,每次更新都会向标准输出打印一条消息。默认值:False

一旦 epoch 的数量达到里程碑之一,通过 gamma 衰减每个参数组的学习率。请注意,这种衰减可能与此调度程序外部对学习率的其他更改同时发生。当last_epoch=-1 时,设置初始 lr 为 lr。

示例

>>> # Assuming optimizer uses lr = 0.05 for all groups
>>> # lr = 0.05     if epoch < 30
>>> # lr = 0.005    if 30 <= epoch < 80
>>> # lr = 0.0005   if epoch >= 80
>>> scheduler = MultiStepLR(optimizer, milestones=[30,80], gamma=0.1)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.optim.lr_scheduler.MultiStepLR。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。