當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.activations.relu用法及代碼示例


應用整流線性單元激活函數。

用法

tf.keras.activations.relu(
    x, alpha=0.0, max_value=None, threshold=0.0
)

參數

  • x 輸入 tensorvariable
  • alpha 一個 float,用於控製低於閾值的值的斜率。
  • max_value float 設置飽和閾值(函數將返回的最大值)。
  • threshold float 給出激活函數的閾值,低於該閾值的值將被阻尼或設置為零。

返回

  • Tensor 表示輸入張量,由 relu 激活函數轉換。張量將具有與輸入 x 相同的形狀和 dtype。

使用默認值,這將返回標準的 ReLU 激活:max(x, 0)、0 的元素最大值和輸入張量。

修改默認參數允許您使用非零閾值、更改激活的最大值以及對低於閾值的值使用輸入的非零倍數。

例如:

foo = tf.constant([-10, -5, 0.0, 5, 10], dtype = tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0.,  0.,  0.,  5., 10.], dtype=float32)
tf.keras.activations.relu(foo, alpha=0.5).numpy()
array([-5. , -2.5,  0. ,  5. , 10. ], dtype=float32)
tf.keras.activations.relu(foo, max_value=5.).numpy()
array([0., 0., 0., 5., 5.], dtype=float32)
tf.keras.activations.relu(foo, threshold=5.).numpy()
array([-0., -0.,  0.,  0., 10.], dtype=float32)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.activations.relu。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。