当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.layers.PReLU用法及代码示例


参数整流线性单元。

继承自:LayerModule

用法

tf.keras.layers.PReLU(
    alpha_initializer='zeros', alpha_regularizer=None,
    alpha_constraint=None, shared_axes=None, **kwargs
)

参数

  • alpha_initializer 权重的初始化函数。
  • alpha_regularizer 权重的正则化器。
  • alpha_constraint 权重的约束。
  • shared_axes 共享激活函数的可学习参数的轴。例如,如果传入的特征图来自具有输出形状 (batch, height, width, channels) 的 2D 卷积,并且您希望跨空间共享参数以便每个过滤器只有一组参数,请设置 shared_axes=[1, 2]

它跟随:

f(x) = alpha * x for x < 0
  f(x) = x for x >= 0

其中alpha 是一个与 x 形状相同的学习数组。

输入形状:

随意的。将此层用作模型中的第一层时,请使用关键字参数input_shape(整数元组,不包括样本轴)。

输出形状:

与输入的形状相同。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.PReLU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。