本文简要介绍python语言中 torch.cuda.amp.GradScaler.unscale_
的用法。
用法:
unscale_(optimizer)
optimizer(torch.optim.Optimizer) -拥有未缩放梯度的优化器。
将 (“unscales”) 优化器的梯度张量除以比例因子。
unscale_()
是可选的,适用于需要修改或检查向后传递和step()
之间的梯度的情况。如果未显式调用unscale_()
,则在step()
期间将自动取消缩放渐变。简单的示例,使用
unscale_()
启用未缩放渐变的裁剪:... scaler.scale(loss).backward() scaler.unscale_(optimizer) torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm) scaler.step(optimizer) scaler.update()
注意
unscale_()
不会产生 CPU-GPU 同步。警告
每个优化器每次
step()
调用只能调用unscale_()
一次,并且只能在该优化器分配的参数的所有梯度都已累积之后调用。在每个step()
之间为给定优化器调用unscale_()
两次会触发运行时错误。警告
unscale_()
可能会取消缩放稀疏梯度,从而替换.grad
属性。
参数:
相关用法
- Python PyTorch Graph.eliminate_dead_code用法及代码示例
- Python PyTorch Graph.inserting_before用法及代码示例
- Python PyTorch Graph.inserting_after用法及代码示例
- Python PyTorch Graph用法及代码示例
- Python PyTorch Graph.node_copy用法及代码示例
- Python PyTorch GroupedPositionWeightedModule.named_parameters用法及代码示例
- Python PyTorch GroupedPooledEmbeddingsLookup.named_buffers用法及代码示例
- Python PyTorch GroupNorm用法及代码示例
- Python PyTorch GroupedPositionWeightedModule.named_buffers用法及代码示例
- Python PyTorch GroupedPooledEmbeddingsLookup.state_dict用法及代码示例
- Python PyTorch GriffinLim用法及代码示例
- Python PyTorch GroupedPooledEmbeddingsLookup.named_parameters用法及代码示例
- Python PyTorch GroupedPositionWeightedModule.state_dict用法及代码示例
- Python PyTorch GreedyPerfPartitioner.partition用法及代码示例
- Python PyTorch GroupedEmbeddingsLookup.state_dict用法及代码示例
- Python PyTorch GroupedEmbeddingsLookup.named_parameters用法及代码示例
- Python PyTorch GroupedEmbeddingsLookup.named_buffers用法及代码示例
- Python PyTorch Grouper用法及代码示例
- Python PyTorch Generator.set_state用法及代码示例
- Python PyTorch Generator.seed用法及代码示例
- Python PyTorch GLU用法及代码示例
- Python PyTorch GDriveReader用法及代码示例
- Python PyTorch GRUCell用法及代码示例
- Python PyTorch Gumbel用法及代码示例
- Python PyTorch Generator.get_state用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.cuda.amp.GradScaler.unscale_。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。