當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python PyTorch SELU用法及代碼示例

本文簡要介紹python語言中 torch.nn.SELU 的用法。

用法:

class torch.nn.SELU(inplace=False)

參數

inplace(bool,可選的) -可以選擇就地執行操作。默認值:False

按元素應用,如:

警告

使用 kaiming_normalkaiming_normal_ 進行初始化時,應使用 nonlinearity='linear' 而不是 nonlinearity='selu' 以獲得 Self-Normalizing Neural Networks 。有關詳細信息,請參閱 torch.nn.init.calculate_gain()

更多細節可以在論文Self-Normalizing Neural Networks 中找到。

形狀:
  • 輸入: ,其中 表示任意數量的維度。

  • 輸出: ,與輸入的形狀相同。

SELU.png

例子:

>>> m = nn.SELU()
>>> input = torch.randn(2)
>>> output = m(input)

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.SELU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。