当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch SELU用法及代码示例


本文简要介绍python语言中 torch.nn.SELU 的用法。

用法:

class torch.nn.SELU(inplace=False)

参数

inplace(bool,可选的) -可以选择就地执行操作。默认值:False

按元素应用,如:

警告

使用 kaiming_normalkaiming_normal_ 进行初始化时,应使用 nonlinearity='linear' 而不是 nonlinearity='selu' 以获得 Self-Normalizing Neural Networks 。有关详细信息,请参阅 torch.nn.init.calculate_gain()

更多细节可以在论文Self-Normalizing Neural Networks 中找到。

形状:
  • 输入: ,其中 表示任意数量的维度。

  • 输出: ,与输入的形状相同。

SELU.png

例子:

>>> m = nn.SELU()
>>> input = torch.randn(2)
>>> output = m(input)

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.SELU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。