Softmax 將值向量轉換為概率分布。
用法
tf.keras.activations.softmax(
x, axis=-1
)
參數
-
x
輸入張量。 -
axis
整數,沿其應用 softmax 歸一化的軸。
返回
- 張量,softmax 變換的輸出(所有值都是非負的並且總和為 1)。
輸出向量的元素在 (0, 1) 範圍內並且總和為 1。
每個向量都是獨立處理的。 axis
參數設置函數應用的輸入軸。
Softmax 通常用作分類網絡最後一層的激活,因為結果可以解釋為概率分布。
每個向量 x 的 softmax 計算為 exp(x) / tf.reduce_sum(exp(x))
。
中的輸入值是結果概率的log-odds。
例子:
示例 1:獨立使用
inputs = tf.random.normal(shape=(32, 10))
outputs = tf.keras.activations.softmax(inputs)
tf.reduce_sum(outputs[0,:]) # Each sample in the batch now sums to 1
<tf.Tensor:shape=(), dtype=float32, numpy=1.0000001>
示例 2:在 Dense
層中的用法
layer = tf.keras.layers.Dense(32, activation=tf.keras.activations.softmax)
相關用法
- Python tf.keras.activations.softplus用法及代碼示例
- Python tf.keras.activations.softsign用法及代碼示例
- Python tf.keras.activations.swish用法及代碼示例
- Python tf.keras.activations.sigmoid用法及代碼示例
- Python tf.keras.activations.selu用法及代碼示例
- Python tf.keras.activations.serialize用法及代碼示例
- Python tf.keras.activations.deserialize用法及代碼示例
- Python tf.keras.activations.elu用法及代碼示例
- Python tf.keras.activations.relu用法及代碼示例
- Python tf.keras.activations.gelu用法及代碼示例
- Python tf.keras.activations.linear用法及代碼示例
- Python tf.keras.activations.tanh用法及代碼示例
- Python tf.keras.activations.hard_sigmoid用法及代碼示例
- Python tf.keras.activations.exponential用法及代碼示例
- Python tf.keras.activations.get用法及代碼示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代碼示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代碼示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代碼示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代碼示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.activations.softmax。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。