當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python tf.keras.layers.PReLU用法及代碼示例

參數整流線性單元。

繼承自:LayerModule

用法

tf.keras.layers.PReLU(
    alpha_initializer='zeros', alpha_regularizer=None,
    alpha_constraint=None, shared_axes=None, **kwargs
)

參數

  • alpha_initializer 權重的初始化函數。
  • alpha_regularizer 權重的正則化器。
  • alpha_constraint 權重的約束。
  • shared_axes 共享激活函數的可學習參數的軸。例如,如果傳入的特征圖來自具有輸出形狀 (batch, height, width, channels) 的 2D 卷積,並且您希望跨空間共享參數以便每個過濾器隻有一組參數,請設置 shared_axes=[1, 2]

它跟隨:

f(x) = alpha * x for x < 0
  f(x) = x for x >= 0

其中alpha 是一個與 x 形狀相同的學習數組。

輸入形狀:

隨意的。將此層用作模型中的第一層時,請使用關鍵字參數input_shape(整數元組,不包括樣本軸)。

輸出形狀:

與輸入的形狀相同。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.PReLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。