當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.losses.SparseCategoricalCrossentropy用法及代碼示例


計算標簽和預測之間的交叉熵損失。

繼承自:Loss

用法

tf.keras.losses.SparseCategoricalCrossentropy(
    from_logits=False, reduction=losses_utils.ReductionV2.AUTO,
    name='sparse_categorical_crossentropy'
)

參數

  • from_logits y_pred 是否預期為 logits 張量。默認情況下,我們假設 y_pred 對概率分布進行編碼。
  • reduction 類型tf.keras.losses.Reduction適用於損失。默認值為AUTO.AUTO表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras compilefit, 使用AUTO或者SUM_OVER_BATCH_SIZE將引發錯誤。請參閱此自定義訓練教程更多細節。
  • name 實例的可選名稱。默認為“sparse_categorical_crossentropy”。

當有兩個或多個標簽類時使用此交叉熵損失函數。我們希望標簽以整數形式提供。如果您想使用one-hot 表示提供標簽,請使用CategoricalCrossentropy loss。對於 y_pred ,每個特征應該有 # classes 浮點值,對於 y_true ,每個特征應該有一個浮點值。

在下麵的代碼段中,每個示例都有一個浮點值 y_true# classes 每個示例的浮點值 y_predy_true 的形狀是 [batch_size]y_pred 的形狀是 [batch_size, num_classes]

單機使用:

y_true = [1, 2]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
# Using 'auto'/'sum_over_batch_size' reduction type.
scce = tf.keras.losses.SparseCategoricalCrossentropy()
scce(y_true, y_pred).numpy()
1.177
# Calling with 'sample_weight'.
scce(y_true, y_pred, sample_weight=tf.constant([0.3, 0.7])).numpy()
0.814
# Using 'sum' reduction type.
scce = tf.keras.losses.SparseCategoricalCrossentropy(
    reduction=tf.keras.losses.Reduction.SUM)
scce(y_true, y_pred).numpy()
2.354
# Using 'none' reduction type.
scce = tf.keras.losses.SparseCategoricalCrossentropy(
    reduction=tf.keras.losses.Reduction.NONE)
scce(y_true, y_pred).numpy()
array([0.0513, 2.303], dtype=float32)

compile() API 的用法:

model.compile(optimizer='sgd',
              loss=tf.keras.losses.SparseCategoricalCrossentropy())

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.SparseCategoricalCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。