当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch CosineAnnealingWarmRestarts.step用法及代码示例


本文简要介绍python语言中 torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.step 的用法。

用法:

step(epoch=None)

每次批量更新后都可以调用步骤

示例

>>> scheduler = CosineAnnealingWarmRestarts(optimizer, T_0, T_mult)
>>> iters = len(dataloader)
>>> for epoch in range(20):
>>>     for i, sample in enumerate(dataloader):
>>>         inputs, labels = sample['inputs'], sample['labels']
>>>         optimizer.zero_grad()
>>>         outputs = net(inputs)
>>>         loss = criterion(outputs, labels)
>>>         loss.backward()
>>>         optimizer.step()
>>>         scheduler.step(epoch + i / iters)

该函数可以以交错方式调用。

示例

>>> scheduler = CosineAnnealingWarmRestarts(optimizer, T_0, T_mult)
>>> for epoch in range(20):
>>>     scheduler.step()
>>> scheduler.step(26)
>>> scheduler.step() # scheduler.step(27), instead of scheduler(20)

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.step。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。