本文简要介绍python语言中 torch.nn.utils.weight_norm
的用法。
用法:
torch.nn.utils.weight_norm(module, name='weight', dim=0)
module(torch.nn.Module) -包含模块
name(str,可选的) -权重参数名称
dim(int,可选的) -计算范数的维度
带有重量标准挂钩的原始模块
将权重归一化应用于给定模块中的参数。
权重归一化是将权重张量的大小与其方向解耦的重新参数化。这将
name
指定的参数(例如'weight'
)替换为两个参数:一个指定幅度(例如'weight_g'
),另一个指定方向(例如'weight_v'
)。权重归一化是通过一个钩子实现的,该钩子在每次forward()
调用之前从大小和方向重新计算权重张量。默认情况下,使用
dim=0
,每个输出通道/平面独立计算范数。要计算整个权重张量的范数,请使用dim=None
。见https://arxiv.org/abs/1602.07868
例子:
>>> m = weight_norm(nn.Linear(20, 40), name='weight') >>> m Linear(in_features=20, out_features=40, bias=True) >>> m.weight_g.size() torch.Size([40, 1]) >>> m.weight_v.size() torch.Size([40, 20])
参数:
返回:
相关用法
- Python PyTorch wrap_torch_function用法及代码示例
- Python PyTorch wrap用法及代码示例
- Python PyTorch wav2vec2_model用法及代码示例
- Python PyTorch where用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
- Python PyTorch cholesky用法及代码示例
- Python PyTorch vdot用法及代码示例
- Python PyTorch ELU用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch gumbel_softmax用法及代码示例
- Python PyTorch get_tokenizer用法及代码示例
- Python PyTorch saved_tensors_hooks用法及代码示例
- Python PyTorch positive用法及代码示例
- Python PyTorch renorm用法及代码示例
- Python PyTorch AvgPool2d用法及代码示例
- Python PyTorch MaxUnpool3d用法及代码示例
- Python PyTorch Bernoulli用法及代码示例
- Python PyTorch Tensor.unflatten用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch Tensor.register_hook用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch sqrt用法及代码示例
- Python PyTorch PackageImporter.id用法及代码示例
- Python PyTorch column_stack用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.utils.weight_norm。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。