本文簡要介紹python語言中 torch.nn.BatchNorm1d
的用法。
用法:
class torch.nn.BatchNorm1d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True, device=None, dtype=None)
num_features- 來自大小為 的預期輸入或來自大小為 的輸入的
eps-加到分母上的值,以保證數值穩定性。默認值:1e-5
momentum-用於 running_mean 和 running_var 計算的值。可以設置為
None
用於累積移動平均(即簡單平均)。默認值:0.1affine-一個布爾值,當設置為
True
時,此模塊具有可學習的仿射參數。默認值:True
track_running_stats-一個布爾值,當設置為
True
時,此模塊跟蹤運行均值和方差,當設置為False
時,此模塊不跟蹤此類統計信息,並將統計緩衝區running_mean
和running_var
初始化為None
.當這些緩衝區為None
時,此模塊始終使用批處理統計信息。在訓練和評估模式下。默認值:True
如本文所述,在 2D 或 3D 輸入(具有可選附加通道維度的小批量 1D 輸入)上應用批量標準化批量標準化:通過減少內部協變量偏移來加速深度網絡訓練.
均值和標準差是在小批量上按維度計算的,
C
的可學習參數向量(其中C
是輸入大小)。默認情況下, 的元素設置為 1, 的元素設置為 0。標準差通過有偏估計器計算,等效於torch.var(input, unbiased=False)
。 和 是大小為同樣默認情況下,在訓練期間,該層會繼續對其計算的均值和方差進行估計,然後在評估期間將其用於歸一化。運行估計保持默認
momentum
為 0.1。如果
track_running_stats
設置為False
,則該層不會繼續運行估計,並且在評估期間也會使用批處理統計信息。注意
這個
momentum
參數不同於優化器類中使用的參數和傳統的動量概念。在數學上,這裏運行統計的更新規則是 ,其中 是估計的統計量,而 是新的觀察值。因為批量標準化是在
C
維度上完成的,計算(N, L)
切片的統計信息,所以將其稱為時間批量標準化是常見的術語。- 形狀:
輸入: 或
輸出: 或 (與輸入的形狀相同)
例子:
>>> # With Learnable Parameters >>> m = nn.BatchNorm1d(100) >>> # Without Learnable Parameters >>> m = nn.BatchNorm1d(100, affine=False) >>> input = torch.randn(20, 100) >>> output = m(input)
參數:
相關用法
- Python PyTorch BatchNorm3d用法及代碼示例
- Python PyTorch BatchNorm2d用法及代碼示例
- Python PyTorch BatchSampler用法及代碼示例
- Python PyTorch Batcher用法及代碼示例
- Python PyTorch Bernoulli用法及代碼示例
- Python PyTorch Binomial用法及代碼示例
- Python PyTorch BucketBatcher用法及代碼示例
- Python PyTorch BCELoss用法及代碼示例
- Python PyTorch Bilinear用法及代碼示例
- Python PyTorch BCEWithLogitsLoss用法及代碼示例
- Python PyTorch Beta用法及代碼示例
- Python PyTorch frexp用法及代碼示例
- Python PyTorch jvp用法及代碼示例
- Python PyTorch cholesky用法及代碼示例
- Python PyTorch vdot用法及代碼示例
- Python PyTorch ELU用法及代碼示例
- Python PyTorch ScaledDotProduct.__init__用法及代碼示例
- Python PyTorch gumbel_softmax用法及代碼示例
- Python PyTorch get_tokenizer用法及代碼示例
- Python PyTorch saved_tensors_hooks用法及代碼示例
- Python PyTorch positive用法及代碼示例
- Python PyTorch renorm用法及代碼示例
- Python PyTorch AvgPool2d用法及代碼示例
- Python PyTorch MaxUnpool3d用法及代碼示例
- Python PyTorch Tensor.unflatten用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.BatchNorm1d。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。