當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python PyTorch RReLU用法及代碼示例


本文簡要介紹python語言中 torch.nn.RReLU 的用法。

用法:

class torch.nn.RReLU(lower=0.125, upper=0.3333333333333333, inplace=False)

參數

  • lower-均勻分布的下界。默認值:

  • upper-均勻分布的上限。默認值:

  • inplace-可以選擇就地執行操作。默認值:False

如本文所述,按元素應用隨機泄漏整流線性單元函數:

卷積網絡中整流激活的經驗評估.

函數定義為:

其中 是從均勻分布 中隨機采樣的。

形狀:
  • 輸入: ,其中 表示任意數量的維度。

  • 輸出: ,與輸入的形狀相同。

例子:

>>> m = nn.RReLU(0.1, 0.3)
>>> input = torch.randn(2)
>>> output = m(input)

相關用法


注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.RReLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。