index 线性单位。
用法
tf.keras.activations.elu(
x, alpha=1.0
)
参数
-
x
输入张量。 -
alpha
一个标量,负截面的斜率。alpha
控制 ELU 对于负网络输入饱和的值。
返回
-
index 线性单元 (ELU) 激活函数:
x
ifx > 0
和alpha * (exp(x) - 1)
ifx < 0
。
alpha > 0
的 index 线性单元 (ELU) 是: x
如果 x > 0
和 alpha * (exp(x) - 1)
如果 x < 0
ELU 超参数 alpha
控制 ELU 对负净输入饱和的值。 ELU 减少了消失的梯度效应。
ELU 具有负值,这会使激活的平均值更接近于零。接近于零的平均激活可以加快学习速度,因为它们使梯度更接近自然梯度。当参数变小时,ELU 饱和到负值。饱和度意味着一个小的导数,它减少了传播到下一层的变化和信息。
示例用法:
import tensorflow as tf
model = tf.keras.Sequential()
model.add(tf.keras.layers.Conv2D(32, (3, 3), activation='elu',
input_shape=(28, 28, 1)))
model.add(tf.keras.layers.MaxPooling2D((2, 2)))
model.add(tf.keras.layers.Conv2D(64, (3, 3), activation='elu'))
model.add(tf.keras.layers.MaxPooling2D((2, 2)))
model.add(tf.keras.layers.Conv2D(64, (3, 3), activation='elu'))
参考:
相关用法
- Python tf.keras.activations.exponential用法及代码示例
- Python tf.keras.activations.softplus用法及代码示例
- Python tf.keras.activations.deserialize用法及代码示例
- Python tf.keras.activations.relu用法及代码示例
- Python tf.keras.activations.gelu用法及代码示例
- Python tf.keras.activations.linear用法及代码示例
- Python tf.keras.activations.swish用法及代码示例
- Python tf.keras.activations.sigmoid用法及代码示例
- Python tf.keras.activations.tanh用法及代码示例
- Python tf.keras.activations.hard_sigmoid用法及代码示例
- Python tf.keras.activations.softsign用法及代码示例
- Python tf.keras.activations.softmax用法及代码示例
- Python tf.keras.activations.get用法及代码示例
- Python tf.keras.activations.selu用法及代码示例
- Python tf.keras.activations.serialize用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代码示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代码示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.elu。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。