比例指數線性單元 (SELU)。
用法
tf.keras.activations.selu(
x
)
參數
-
x
計算激活函數的張量或變量。
返回
-
縮放 index 單位激活:
scale * elu(x, alpha)
。
Scaled Exponential Linear Unit (SELU) 激活函數定義為:
if x > 0:return scale * x
if x < 0:return scale * alpha * (exp(x) - 1)
其中 alpha
和 scale
是預定義的常量( alpha=1.67326324
和 scale=1.05070098
)。
本質上,SELU 激活函數將 scale
(> 1) 與 tf.keras.activations.elu
函數的輸出相乘,以確保正輸入的斜率大於 1。
選擇 alpha
和 scale
的值,以便在兩個連續層之間保留輸入的均值和方差,隻要正確初始化權重(參見 tf.keras.initializers.LecunNormal
初始化程序)並且輸入單元的數量是 "large enough"(有關更多信息,請參閱參考文件)。
示例用法:
num_classes = 10 # 10-class problem
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(64, kernel_initializer='lecun_normal',
activation='selu'))
model.add(tf.keras.layers.Dense(32, kernel_initializer='lecun_normal',
activation='selu'))
model.add(tf.keras.layers.Dense(16, kernel_initializer='lecun_normal',
activation='selu'))
model.add(tf.keras.layers.Dense(num_classes, activation='softmax'))
注意:
- 與
tf.keras.initializers.LecunNormal
初始化程序一起使用。 - 與 dropout 變體
tf.keras.layers.AlphaDropout
一起使用(不是常規 dropout)。
參考:
相關用法
- Python tf.keras.activations.serialize用法及代碼示例
- Python tf.keras.activations.softplus用法及代碼示例
- Python tf.keras.activations.swish用法及代碼示例
- Python tf.keras.activations.sigmoid用法及代碼示例
- Python tf.keras.activations.softsign用法及代碼示例
- Python tf.keras.activations.softmax用法及代碼示例
- Python tf.keras.activations.deserialize用法及代碼示例
- Python tf.keras.activations.elu用法及代碼示例
- Python tf.keras.activations.relu用法及代碼示例
- Python tf.keras.activations.gelu用法及代碼示例
- Python tf.keras.activations.linear用法及代碼示例
- Python tf.keras.activations.tanh用法及代碼示例
- Python tf.keras.activations.hard_sigmoid用法及代碼示例
- Python tf.keras.activations.exponential用法及代碼示例
- Python tf.keras.activations.get用法及代碼示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代碼示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代碼示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代碼示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代碼示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.activations.selu。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。