本文简要介绍python语言中 torch.nn.init.calculate_gain
的用法。
用法:
torch.nn.init.calculate_gain(nonlinearity, param=None)
nonlinearity-非线性函数(
nn.functional
名称)param-非线性函数的可选参数
返回给定非线性函数的推荐增益值。值如下:
非线性
获得
线性/身份
转化{1,2,3}天
Sigmoid
Tanh
ReLU
泄漏的 Relu
SELU
警告
为了实现 Self-Normalizing Neural Networks ,您应该使用
nonlinearity='linear'
而不是nonlinearity='selu'
。这使初始权重的方差为1 / N
,这是在前向传播中引入稳定不动点所必需的。相比之下,SELU
的默认增益牺牲了归一化效果,以在矩形层中获得更稳定的梯度流。例子
>>> gain = nn.init.calculate_gain('leaky_relu', 0.2) # leaky_relu with negative_slope=0.2
参数:
相关用法
- Python PyTorch cat用法及代码示例
- Python PyTorch cartesian_prod用法及代码示例
- Python PyTorch cached用法及代码示例
- Python PyTorch can_cast用法及代码示例
- Python PyTorch cholesky用法及代码示例
- Python PyTorch column_stack用法及代码示例
- Python PyTorch cumprod用法及代码示例
- Python PyTorch cov用法及代码示例
- Python PyTorch cos用法及代码示例
- Python PyTorch compute_deltas用法及代码示例
- Python PyTorch conv_transpose3d用法及代码示例
- Python PyTorch combinations用法及代码示例
- Python PyTorch conv2d用法及代码示例
- Python PyTorch cummax用法及代码示例
- Python PyTorch custom_from_mask用法及代码示例
- Python PyTorch collect_all用法及代码示例
- Python PyTorch chunk用法及代码示例
- Python PyTorch convert用法及代码示例
- Python PyTorch conv1d用法及代码示例
- Python PyTorch chain_matmul用法及代码示例
- Python PyTorch constant_用法及代码示例
- Python PyTorch context用法及代码示例
- Python PyTorch count_nonzero用法及代码示例
- Python PyTorch cdist用法及代码示例
- Python PyTorch ceil用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.init.calculate_gain。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。