当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.nn.relu6用法及代码示例


计算整流线性 6:min(max(features, 0), 6)

用法

tf.nn.relu6(
    features, name=None
)

参数

  • features Tensor 类型为 float , double , int32 , int64 , uint8 , int16int8
  • name 操作的名称(可选)。

返回

  • features 具有相同类型的 Tensor

tf.nn.relu 相比,通过鼓励模型更早地学习稀疏特征,relu6 激活函数在低精度条件(例如定点推理)下表现出更好的经验。来源:CIFAR-10 上的卷积深度信念网络:Krizhevsky 等人,2010。

例如:

x = tf.constant([-3.0, -1.0, 0.0, 6.0, 10.0], dtype=tf.float32)
y = tf.nn.relu6(x)
y.numpy()
array([0., 0., 0., 6., 6.], dtype=float32)

参考:

CIFAR-10 上的卷积深度信念网络:Krizhevsky 等人,2010 (pdf)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.nn.relu6。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。