本文簡要介紹python語言中 torch.nn.SiLU
的用法。
用法:
class torch.nn.SiLU(inplace=False)
逐元素應用 Sigmoid 線性單元 (SiLU) 函數。 SiLU 函數也稱為 swish 函數。
注意
參看高斯誤差線性單位 (GELU)SiLU(Sigmoid 線性單元)最初是在哪裏創造的,請參閱Sigmoid-Weighted 強化學習中神經網絡函數逼近的線性單元和Swish:Self-Gated 激活函數稍後對 SiLU 進行了實驗。
- 形狀:
輸入: ,其中 表示任意數量的維度。
輸出: ,與輸入的形狀相同。
例子:
>>> m = nn.SiLU() >>> input = torch.randn(2) >>> output = m(input)
相關用法
- Python PyTorch Sigmoid用法及代碼示例
- Python PyTorch SimpleDeepFMNN用法及代碼示例
- Python PyTorch ScaledDotProduct.__init__用法及代碼示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代碼示例
- Python PyTorch SummaryWriter.add_histogram用法及代碼示例
- Python PyTorch ScriptModule.state_dict用法及代碼示例
- Python PyTorch Softmin用法及代碼示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代碼示例
- Python PyTorch Softmax2d用法及代碼示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代碼示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代碼示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代碼示例
- Python PyTorch ScriptModule.parameters用法及代碼示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代碼示例
- Python PyTorch SummaryWriter.add_image用法及代碼示例
- Python PyTorch Store.num_keys用法及代碼示例
- Python PyTorch ShardedEmbeddingBagCollection.named_modules用法及代碼示例
- Python PyTorch SummaryWriter.add_hparams用法及代碼示例
- Python PyTorch ScriptModule.register_forward_hook用法及代碼示例
- Python PyTorch ShardedEmbeddingBagCollection.state_dict用法及代碼示例
- Python PyTorch ScriptModule.modules用法及代碼示例
- Python PyTorch SummaryWriter.__init__用法及代碼示例
- Python PyTorch SparseArch用法及代碼示例
- Python PyTorch SequentialLR用法及代碼示例
- Python PyTorch ShardedEmbeddingCollection.named_parameters用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.SiLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。