当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch LinearLR用法及代码示例


本文简要介绍python语言中 torch.optim.lr_scheduler.LinearLR 的用法。

用法:

class torch.optim.lr_scheduler.LinearLR(optimizer, start_factor=0.3333333333333333, end_factor=1.0, total_iters=5, last_epoch=- 1, verbose=False)

参数

  • optimizer(Optimizer) -包装优化器。

  • start_factor(float) -我们在第一个时期乘以学习率的数字。在接下来的时期中,倍增因子将变为end_factor。默认值:1./3。

  • end_factor(float) -在线性变化过程结束时乘以学习率的数字。默认值:1.0。

  • total_iters(int) -乘法因子达到 1 时的迭代次数。默认值:5。

  • last_epoch(int) -最后纪元的索引。默认值:-1。

  • verbose(bool) -如果 True ,每次更新都会向标准输出打印一条消息。默认值:False

通过线性改变小乘法因子来衰减每个参数组的学习率,直到纪元数量达到预定义的里程碑:total_iters。请注意,这种衰减可能与调度程序外部对学习率的其他更改同时发生。当last_epoch=-1时,将初始lr设置为lr。

示例

>>> # Assuming optimizer uses lr = 0.05 for all groups
>>> # lr = 0.025    if epoch == 0
>>> # lr = 0.03125  if epoch == 1
>>> # lr = 0.0375   if epoch == 2
>>> # lr = 0.04375  if epoch == 3
>>> # lr = 0.005    if epoch >= 4
>>> scheduler = LinearLR(self.opt, start_factor=0.5, total_iters=4)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.optim.lr_scheduler.LinearLR。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。