当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch ConstantLR用法及代码示例


本文简要介绍python语言中 torch.optim.lr_scheduler.ConstantLR 的用法。

用法:

class torch.optim.lr_scheduler.ConstantLR(optimizer, factor=0.3333333333333333, total_iters=5, last_epoch=- 1, verbose=False)

参数

  • optimizer(Optimizer) -包装优化器。

  • factor(float) -我们乘以学习率直到达到里程碑的数字。默认值:1./3。

  • total_iters(int) -调度程序衰减学习率的步骤数。默认值:5。

  • last_epoch(int) -最后纪元的索引。默认值:-1。

  • verbose(bool) -如果 True ,每次更新都会向标准输出打印一条消息。默认值:False

将每个参数组的学习率衰减一个小的常数因子,直到 epoch 的数量达到预定义的里程碑:total_iters。请注意,这种衰减可能与调度程序外部对学习率的其他更改同时发生。当last_epoch=-1时,将初始lr设置为lr。

示例

>>> # Assuming optimizer uses lr = 0.05 for all groups
>>> # lr = 0.025   if epoch == 0
>>> # lr = 0.025   if epoch == 1
>>> # lr = 0.025   if epoch == 2
>>> # lr = 0.025   if epoch == 3
>>> # lr = 0.05    if epoch >= 4
>>> scheduler = ConstantLR(self.opt, factor=0.5, total_iters=4)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.optim.lr_scheduler.ConstantLR。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。