當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch ConstantLR用法及代碼示例


本文簡要介紹python語言中 torch.optim.lr_scheduler.ConstantLR 的用法。

用法:

class torch.optim.lr_scheduler.ConstantLR(optimizer, factor=0.3333333333333333, total_iters=5, last_epoch=- 1, verbose=False)

參數

  • optimizer(Optimizer) -包裝優化器。

  • factor(float) -我們乘以學習率直到達到裏程碑的數字。默認值:1./3。

  • total_iters(int) -調度程序衰減學習率的步驟數。默認值:5。

  • last_epoch(int) -最後紀元的索引。默認值:-1。

  • verbose(bool) -如果 True ,每次更新都會向標準輸出打印一條消息。默認值:False

將每個參數組的學習率衰減一個小的常數因子,直到 epoch 的數量達到預定義的裏程碑:total_iters。請注意,這種衰減可能與調度程序外部對學習率的其他更改同時發生。當last_epoch=-1時,將初始lr設置為lr。

示例

>>> # Assuming optimizer uses lr = 0.05 for all groups
>>> # lr = 0.025   if epoch == 0
>>> # lr = 0.025   if epoch == 1
>>> # lr = 0.025   if epoch == 2
>>> # lr = 0.025   if epoch == 3
>>> # lr = 0.05    if epoch >= 4
>>> scheduler = ConstantLR(self.opt, factor=0.5, total_iters=4)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.optim.lr_scheduler.ConstantLR。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。