當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python tf.keras.layers.ThresholdedReLU用法及代碼示例

閾值整流線性單元。

繼承自:LayerModule

用法

tf.keras.layers.ThresholdedReLU(
    theta=1.0, **kwargs
)

參數

  • theta Float >= 0。激活的​​閾值位置。

它跟隨:

f(x) = x for x > theta
  f(x) = 0 otherwise`

輸入形狀:

隨意的。將此層用作模型中的第一層時,請使用關鍵字參數input_shape(整數元組,不包括樣本軸)。

輸出形狀:

與輸入的形狀相同。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.ThresholdedReLU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。