當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.nn.relu6用法及代碼示例


計算整流線性 6:min(max(features, 0), 6)

用法

tf.nn.relu6(
    features, name=None
)

參數

  • features Tensor 類型為 float , double , int32 , int64 , uint8 , int16int8
  • name 操作的名稱(可選)。

返回

  • features 具有相同類型的 Tensor

tf.nn.relu 相比,通過鼓勵模型更早地學習稀疏特征,relu6 激活函數在低精度條件(例如定點推理)下表現出更好的經驗。來源:CIFAR-10 上的卷積深度信念網絡:Krizhevsky 等人,2010。

例如:

x = tf.constant([-3.0, -1.0, 0.0, 6.0, 10.0], dtype=tf.float32)
y = tf.nn.relu6(x)
y.numpy()
array([0., 0., 0., 6., 6.], dtype=float32)

參考:

CIFAR-10 上的卷積深度信念網絡:Krizhevsky 等人,2010 (pdf)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.nn.relu6。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。