当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.layers.LeakyReLU用法及代码示例


整流线性单元的泄漏版本。

继承自:LayerModule

用法

tf.keras.layers.LeakyReLU(
    alpha=0.3, **kwargs
)

参数

  • alpha Float >= 0。负斜率系数。默认为 0.3。

当设备不活动时,它允许一个小的梯度:

f(x) = alpha * x if x < 0
  f(x) = x if x >= 0

用法:

layer = tf.keras.layers.LeakyReLU()
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-0.9, -0.3, 0.0, 2.0]
layer = tf.keras.layers.LeakyReLU(alpha=0.1)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-0.3, -0.1, 0.0, 2.0]

输入形状:

随意的。将此层用作模型中的第一层时,请使用关键字参数input_shape(整数元组,不包括批处理轴)。

输出形状:

与输入的形状相同。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.LeakyReLU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。