當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.layers.Activation用法及代碼示例


將激活函數應用於輸出。

繼承自:LayerModule

用法

tf.keras.layers.Activation(
    activation, **kwargs
)

參數

  • activation 激活函數,如tf.nn.relu,或內置激活函數的字符串名稱,如"relu"。

用法:

layer = tf.keras.layers.Activation('relu')
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
layer = tf.keras.layers.Activation(tf.nn.relu)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]

輸入形狀:

隨意的。將此層用作模型中的第一層時,請使用關鍵字參數input_shape(整數元組,不包括批處理軸)。

輸出形狀:

與輸入的形狀相同。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.Activation。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。