當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.losses.CategoricalCrossentropy用法及代碼示例


計算標簽和預測之間的交叉熵損失。

繼承自:Loss

用法

tf.keras.losses.CategoricalCrossentropy(
    from_logits=False, label_smoothing=0.0, axis=-1,
    reduction=losses_utils.ReductionV2.AUTO,
    name='categorical_crossentropy'
)

參數

  • from_logits y_pred 是否預期為 logits 張量。默認情況下,我們假設 y_pred 對概率分布進行編碼。
  • label_smoothing 浮點數在 [0, 1] 中。當 > 0 時,標簽值會被平滑,這意味著標簽值的置信度會放鬆。例如,如果 0.1 ,則將 0.1 / num_classes 用於非目標標簽,將 0.9 + 0.1 / num_classes 用於目標標簽。
  • axis 計算交叉熵的軸(特征軸)。默認為 -1。
  • reduction 類型tf.keras.losses.Reduction適用於損失。默認值為AUTO.AUTO表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras compilefit, 使用AUTO或者SUM_OVER_BATCH_SIZE將引發錯誤。請參閱此自定義訓練教程更多細節。
  • name 實例的可選名稱。默認為'categorical_crossentropy'。

當有兩個或多個標簽類時使用此交叉熵損失函數。我們希望以one_hot 表示形式提供標簽。如果您想以整數形式提供標簽,請使用SparseCategoricalCrossentropy loss。每個特征應該有 # classes 浮點值。

在下麵的代碼片段中,每個示例都有 # classes 浮點值。 y_predy_true 的形狀都是 [batch_size, num_classes]

單機使用:

y_true = [[0, 1, 0], [0, 0, 1]]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
# Using 'auto'/'sum_over_batch_size' reduction type.
cce = tf.keras.losses.CategoricalCrossentropy()
cce(y_true, y_pred).numpy()
1.177
# Calling with 'sample_weight'.
cce(y_true, y_pred, sample_weight=tf.constant([0.3, 0.7])).numpy()
0.814
# Using 'sum' reduction type.
cce = tf.keras.losses.CategoricalCrossentropy(
    reduction=tf.keras.losses.Reduction.SUM)
cce(y_true, y_pred).numpy()
2.354
# Using 'none' reduction type.
cce = tf.keras.losses.CategoricalCrossentropy(
    reduction=tf.keras.losses.Reduction.NONE)
cce(y_true, y_pred).numpy()
array([0.0513, 2.303], dtype=float32)

compile() API 的用法:

model.compile(optimizer='sgd', loss=tf.keras.losses.CategoricalCrossentropy())

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.CategoricalCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。