計算標簽和預測之間的交叉熵損失。
繼承自:Loss
用法
tf.keras.losses.SparseCategoricalCrossentropy(
from_logits=False, reduction=losses_utils.ReductionV2.AUTO,
name='sparse_categorical_crossentropy'
)
參數
-
from_logits
y_pred
是否預期為 logits 張量。默認情況下,我們假設y_pred
對概率分布進行編碼。 -
reduction
類型tf.keras.losses.Reduction
適用於損失。默認值為AUTO
.AUTO
表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE
.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras
compile
和fit
, 使用AUTO
或者SUM_OVER_BATCH_SIZE
將引發錯誤。請參閱此自定義訓練教程更多細節。 -
name
實例的可選名稱。默認為“sparse_categorical_crossentropy”。
當有兩個或多個標簽類時使用此交叉熵損失函數。我們希望標簽以整數形式提供。如果您想使用one-hot
表示提供標簽,請使用CategoricalCrossentropy
loss。對於 y_pred
,每個特征應該有 # classes
浮點值,對於 y_true
,每個特征應該有一個浮點值。
在下麵的代碼段中,每個示例都有一個浮點值 y_true
和 # classes
每個示例的浮點值 y_pred
。 y_true
的形狀是 [batch_size]
, y_pred
的形狀是 [batch_size, num_classes]
。
單機使用:
y_true = [1, 2]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
# Using 'auto'/'sum_over_batch_size' reduction type.
scce = tf.keras.losses.SparseCategoricalCrossentropy()
scce(y_true, y_pred).numpy()
1.177
# Calling with 'sample_weight'.
scce(y_true, y_pred, sample_weight=tf.constant([0.3, 0.7])).numpy()
0.814
# Using 'sum' reduction type.
scce = tf.keras.losses.SparseCategoricalCrossentropy(
reduction=tf.keras.losses.Reduction.SUM)
scce(y_true, y_pred).numpy()
2.354
# Using 'none' reduction type.
scce = tf.keras.losses.SparseCategoricalCrossentropy(
reduction=tf.keras.losses.Reduction.NONE)
scce(y_true, y_pred).numpy()
array([0.0513, 2.303], dtype=float32)
compile()
API 的用法:
model.compile(optimizer='sgd',
loss=tf.keras.losses.SparseCategoricalCrossentropy())
相關用法
- Python tf.keras.losses.SquaredHinge用法及代碼示例
- Python tf.keras.losses.MeanAbsoluteError用法及代碼示例
- Python tf.keras.losses.huber用法及代碼示例
- Python tf.keras.losses.log_cosh用法及代碼示例
- Python tf.keras.losses.BinaryCrossentropy用法及代碼示例
- Python tf.keras.losses.BinaryFocalCrossentropy用法及代碼示例
- Python tf.keras.losses.categorical_hinge用法及代碼示例
- Python tf.keras.losses.cosine_similarity用法及代碼示例
- Python tf.keras.losses.Huber用法及代碼示例
- Python tf.keras.losses.LogCosh用法及代碼示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代碼示例
- Python tf.keras.losses.get用法及代碼示例
- Python tf.keras.losses.CosineSimilarity用法及代碼示例
- Python tf.keras.losses.Hinge用法及代碼示例
- Python tf.keras.losses.KLDivergence用法及代碼示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代碼示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.MeanSquaredError用法及代碼示例
- Python tf.keras.losses.Poisson用法及代碼示例
- Python tf.keras.losses.CategoricalHinge用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.SparseCategoricalCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。