比例指数线性单元 (SELU)。
用法
tf.keras.activations.selu(
x
)
参数
-
x
计算激活函数的张量或变量。
返回
-
缩放 index 单位激活:
scale * elu(x, alpha)
。
Scaled Exponential Linear Unit (SELU) 激活函数定义为:
if x > 0:return scale * x
if x < 0:return scale * alpha * (exp(x) - 1)
其中 alpha
和 scale
是预定义的常量( alpha=1.67326324
和 scale=1.05070098
)。
本质上,SELU 激活函数将 scale
(> 1) 与 tf.keras.activations.elu
函数的输出相乘,以确保正输入的斜率大于 1。
选择 alpha
和 scale
的值,以便在两个连续层之间保留输入的均值和方差,只要正确初始化权重(参见 tf.keras.initializers.LecunNormal
初始化程序)并且输入单元的数量是 "large enough"(有关更多信息,请参阅参考文件)。
示例用法:
num_classes = 10 # 10-class problem
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(64, kernel_initializer='lecun_normal',
activation='selu'))
model.add(tf.keras.layers.Dense(32, kernel_initializer='lecun_normal',
activation='selu'))
model.add(tf.keras.layers.Dense(16, kernel_initializer='lecun_normal',
activation='selu'))
model.add(tf.keras.layers.Dense(num_classes, activation='softmax'))
注意:
- 与
tf.keras.initializers.LecunNormal
初始化程序一起使用。 - 与 dropout 变体
tf.keras.layers.AlphaDropout
一起使用(不是常规 dropout)。
参考:
相关用法
- Python tf.keras.activations.serialize用法及代码示例
- Python tf.keras.activations.softplus用法及代码示例
- Python tf.keras.activations.swish用法及代码示例
- Python tf.keras.activations.sigmoid用法及代码示例
- Python tf.keras.activations.softsign用法及代码示例
- Python tf.keras.activations.softmax用法及代码示例
- Python tf.keras.activations.deserialize用法及代码示例
- Python tf.keras.activations.elu用法及代码示例
- Python tf.keras.activations.relu用法及代码示例
- Python tf.keras.activations.gelu用法及代码示例
- Python tf.keras.activations.linear用法及代码示例
- Python tf.keras.activations.tanh用法及代码示例
- Python tf.keras.activations.hard_sigmoid用法及代码示例
- Python tf.keras.activations.exponential用法及代码示例
- Python tf.keras.activations.get用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代码示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代码示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.selu。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。