當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch SiLU用法及代碼示例


本文簡要介紹python語言中 torch.nn.SiLU 的用法。

用法:

class torch.nn.SiLU(inplace=False)

逐元素應用 Sigmoid 線性單元 (SiLU) 函數。 SiLU 函數也稱為 swish 函數。

注意

參看高斯誤差線性單位 (GELU)SiLU(Sigmoid 線性單元)最初是在哪裏創造的,請參閱Sigmoid-Weighted 強化學習中神經網絡函數逼近的線性單元Swish:Self-Gated 激活函數稍後對 SiLU 進行了實驗。

形狀:
  • 輸入: ,其中 表示任意數量的維度。

  • 輸出: ,與輸入的形狀相同。

例子:

>>> m = nn.SiLU()
>>> input = torch.randn(2)
>>> output = m(input)

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.SiLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。