當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python tf.keras.metrics.categorical_crossentropy用法及代碼示例

計算分類交叉熵損失。

用法

tf.keras.metrics.categorical_crossentropy(
    y_true, y_pred, from_logits=False, label_smoothing=0.0, axis=-1
)

參數

  • y_true one-hot 真實目標的張量。
  • y_pred 預測目標的張量。
  • from_logits y_pred 是否預期為 logits 張量。默認情況下,我們假設 y_pred 對概率分布進行編碼。
  • label_smoothing 浮點數在 [0, 1] 中。如果 > 0 然後平滑標簽。例如,如果 0.1 ,則將 0.1 / num_classes 用於非目標標簽,將 0.9 + 0.1 / num_classes 用於目標標簽。
  • axis 默認為 -1。計算熵的維度。

返回

  • 分類交叉熵損失值。

單機使用:

y_true = [[0, 1, 0], [0, 0, 1]]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
loss = tf.keras.losses.categorical_crossentropy(y_true, y_pred)
assert loss.shape == (2,)
loss.numpy()
array([0.0513, 2.303], dtype=float32)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.metrics.categorical_crossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。