當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.activations.softmax用法及代碼示例


Softmax 將值向量轉換為概率分布。

用法

tf.keras.activations.softmax(
    x, axis=-1
)

參數

  • x 輸入張量。
  • axis 整數,沿其應用 softmax 歸一化的軸。

返回

  • 張量,softmax 變換的輸出(所有值都是非負的並且總和為 1)。

輸出向量的元素在 (0, 1) 範圍內並且總和為 1。

每個向量都是獨立處理的。 axis 參數設置函數應用的輸入軸。

Softmax 通常用作分類網絡最後一層的激活,因為結果可以解釋為概率分布。

每個向量 x 的 softmax 計算為 exp(x) / tf.reduce_sum(exp(x))

中的輸入值是結果概率的log-odds。

例子:

示例 1:獨立使用

inputs = tf.random.normal(shape=(32, 10))
outputs = tf.keras.activations.softmax(inputs)
tf.reduce_sum(outputs[0,:])  # Each sample in the batch now sums to 1
<tf.Tensor:shape=(), dtype=float32, numpy=1.0000001>

示例 2:在 Dense 層中的用法

layer = tf.keras.layers.Dense(32, activation=tf.keras.activations.softmax)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.activations.softmax。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。