当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.activations.relu用法及代码示例


应用整流线性单元激活函数。

用法

tf.keras.activations.relu(
    x, alpha=0.0, max_value=None, threshold=0.0
)

参数

  • x 输入 tensorvariable
  • alpha 一个 float,用于控制低于阈值的值的斜率。
  • max_value float 设置饱和阈值(函数将返回的最大值)。
  • threshold float 给出激活函数的阈值,低于该阈值的值将被阻尼或设置为零。

返回

  • Tensor 表示输入张量,由 relu 激活函数转换。张量将具有与输入 x 相同的形状和 dtype。

使用默认值,这将返回标准的 ReLU 激活:max(x, 0)、0 的元素最大值和输入张量。

修改默认参数允许您使用非零阈值、更改激活的最大值以及对低于阈值的值使用输入的非零倍数。

例如:

foo = tf.constant([-10, -5, 0.0, 5, 10], dtype = tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0.,  0.,  0.,  5., 10.], dtype=float32)
tf.keras.activations.relu(foo, alpha=0.5).numpy()
array([-5. , -2.5,  0. ,  5. , 10. ], dtype=float32)
tf.keras.activations.relu(foo, max_value=5.).numpy()
array([0., 0., 0., 5., 5.], dtype=float32)
tf.keras.activations.relu(foo, threshold=5.).numpy()
array([-0., -0.,  0.,  0., 10.], dtype=float32)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.relu。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。