當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.layers.LeakyReLU用法及代碼示例


整流線性單元的泄漏版本。

繼承自:LayerModule

用法

tf.keras.layers.LeakyReLU(
    alpha=0.3, **kwargs
)

參數

  • alpha Float >= 0。負斜率係數。默認為 0.3。

當設備不活動時,它允許一個小的梯度:

f(x) = alpha * x if x < 0
  f(x) = x if x >= 0

用法:

layer = tf.keras.layers.LeakyReLU()
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-0.9, -0.3, 0.0, 2.0]
layer = tf.keras.layers.LeakyReLU(alpha=0.1)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-0.3, -0.1, 0.0, 2.0]

輸入形狀:

隨意的。將此層用作模型中的第一層時,請使用關鍵字參數input_shape(整數元組,不包括批處理軸)。

輸出形狀:

與輸入的形狀相同。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.LeakyReLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。