当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.layers.ThresholdedReLU用法及代码示例


阈值整流线性单元。

继承自:LayerModule

用法

tf.keras.layers.ThresholdedReLU(
    theta=1.0, **kwargs
)

参数

  • theta Float >= 0。激活的​​阈值位置。

它跟随:

f(x) = x for x > theta
  f(x) = 0 otherwise`

输入形状:

随意的。将此层用作模型中的第一层时,请使用关键字参数input_shape(整数元组,不包括样本轴)。

输出形状:

与输入的形状相同。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.ThresholdedReLU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。