當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch CosineAnnealingWarmRestarts.step用法及代碼示例


本文簡要介紹python語言中 torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.step 的用法。

用法:

step(epoch=None)

每次批量更新後都可以調用步驟

示例

>>> scheduler = CosineAnnealingWarmRestarts(optimizer, T_0, T_mult)
>>> iters = len(dataloader)
>>> for epoch in range(20):
>>>     for i, sample in enumerate(dataloader):
>>>         inputs, labels = sample['inputs'], sample['labels']
>>>         optimizer.zero_grad()
>>>         outputs = net(inputs)
>>>         loss = criterion(outputs, labels)
>>>         loss.backward()
>>>         optimizer.step()
>>>         scheduler.step(epoch + i / iters)

該函數可以以交錯方式調用。

示例

>>> scheduler = CosineAnnealingWarmRestarts(optimizer, T_0, T_mult)
>>> for epoch in range(20):
>>>     scheduler.step()
>>> scheduler.step(26)
>>> scheduler.step() # scheduler.step(27), instead of scheduler(20)

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.step。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。