当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.layers.ReLU用法及代码示例


整流线性单元激活函数。

继承自:LayerModule

用法

tf.keras.layers.ReLU(
    max_value=None, negative_slope=0.0, threshold=0.0, **kwargs
)

参数

  • max_value Float >= 0。最大激活值。默认为无,表示无限制。
  • negative_slope Float >= 0。负斜率系数。默认为 0。
  • threshold Float >= 0。阈值激活的阈值。默认为 0。

使用默认值,它按元素返回 max(x, 0)

否则,如下:

f(x) = max_value if x >= max_value
  f(x) = x if threshold <= x < max_value
  f(x) = negative_slope * (x - threshold) otherwise

用法:

layer = tf.keras.layers.ReLU()
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
layer = tf.keras.layers.ReLU(max_value=1.0)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 1.0]
layer = tf.keras.layers.ReLU(negative_slope=1.0)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-3.0, -1.0, 0.0, 2.0]
layer = tf.keras.layers.ReLU(threshold=1.5)
output = layer([-3.0, -1.0, 1.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]

输入形状:

随意的。将此层用作模型中的第一层时,请使用关键字参数input_shape(整数元组,不包括批处理轴)。

输出形状:

与输入的形状相同。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.ReLU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。