本文简要介绍python语言中 torch.nn.SELU
的用法。
用法:
class torch.nn.SELU(inplace=False)
inplace(bool,可选的) -可以选择就地执行操作。默认值:
False
按元素应用,如:
与 和 。
警告
使用
kaiming_normal
或kaiming_normal_
进行初始化时,应使用nonlinearity='linear'
而不是nonlinearity='selu'
以获得 Self-Normalizing Neural Networks 。有关详细信息,请参阅torch.nn.init.calculate_gain()
。更多细节可以在论文Self-Normalizing Neural Networks 中找到。
- 形状:
输入: ,其中 表示任意数量的维度。
输出: ,与输入的形状相同。
例子:
>>> m = nn.SELU() >>> input = torch.randn(2) >>> output = m(input)
参数:
相关用法
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch SummaryWriter.add_histogram用法及代码示例
- Python PyTorch ScriptModule.state_dict用法及代码示例
- Python PyTorch Softmin用法及代码示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代码示例
- Python PyTorch Softmax2d用法及代码示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代码示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代码示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代码示例
- Python PyTorch ScriptModule.parameters用法及代码示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代码示例
- Python PyTorch SummaryWriter.add_image用法及代码示例
- Python PyTorch Store.num_keys用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_modules用法及代码示例
- Python PyTorch SummaryWriter.add_hparams用法及代码示例
- Python PyTorch ScriptModule.register_forward_hook用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.state_dict用法及代码示例
- Python PyTorch ScriptModule.modules用法及代码示例
- Python PyTorch SummaryWriter.__init__用法及代码示例
- Python PyTorch SparseArch用法及代码示例
- Python PyTorch SequentialLR用法及代码示例
- Python PyTorch ShardedEmbeddingCollection.named_parameters用法及代码示例
- Python PyTorch ScriptModule.register_forward_pre_hook用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.SELU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。