当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.activations.selu用法及代码示例


比例指数线性单元 (SELU)。

用法

tf.keras.activations.selu(
    x
)

参数

  • x 计算激活函数的张量或变量。

返回

  • 缩放 index 单位激活:scale * elu(x, alpha)

Scaled Exponential Linear Unit (SELU) 激活函数定义为:

  • if x > 0:return scale * x
  • if x < 0:return scale * alpha * (exp(x) - 1)

其中 alphascale 是预定义的常量( alpha=1.67326324scale=1.05070098 )。

本质上,SELU 激活函数将 scale (> 1) 与 tf.keras.activations.elu 函数的输出相乘,以确保正输入的斜率大于 1。

选择 alphascale 的值,以便在两个连续层之间保留输入的均值和方差,只要正确初始化权重(参见 tf.keras.initializers.LecunNormal 初始化程序)并且输入单元的数量是 "large enough"(有关更多信息,请参阅参考文件)。

示例用法:

num_classes = 10  # 10-class problem
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(64, kernel_initializer='lecun_normal',
                                activation='selu'))
model.add(tf.keras.layers.Dense(32, kernel_initializer='lecun_normal',
                                activation='selu'))
model.add(tf.keras.layers.Dense(16, kernel_initializer='lecun_normal',
                                activation='selu'))
model.add(tf.keras.layers.Dense(num_classes, activation='softmax'))

注意:

参考:

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.selu。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。