計算真實標簽和預測標簽之間的 cross-entropy 損失。
繼承自:Loss
用法
tf.keras.losses.BinaryCrossentropy(
from_logits=False, label_smoothing=0.0, axis=-1,
reduction=losses_utils.ReductionV2.AUTO, name='binary_crossentropy'
)
參數
-
from_logits
是否翻譯y_pred
作為一個張量羅 Git 值。默認情況下,我們假設y_pred
包含概率(即 [0, 1] 中的值)。 -
label_smoothing
浮點數在 [0, 1] 中。為 0 時,不進行平滑處理。當 > 0 時,我們計算預測標簽和真實標簽的平滑版本之間的損失,其中平滑將標簽壓縮到 0.5。label_smoothing
的較大值對應於較重的平滑。 -
axis
計算交叉熵的軸(特征軸)。默認為 -1。 -
reduction
類型tf.keras.losses.Reduction
適用於損失。默認值為AUTO
.AUTO
表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE
.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras
compile
和fit
, 使用AUTO
或者SUM_OVER_BATCH_SIZE
將引發錯誤。請參閱此自定義訓練教程更多細節。 -
name
操作的名稱。默認為'binary_crossentropy'。
將此 cross-entropy 損失用於二進製(0 或 1)分類應用程序。損失函數需要以下輸入:
y_true
(真實標簽):這是 0 或 1。y_pred
(預測值):這是模型的預測,即單個浮點值,它或者代表一個 logit,(即,當from_logits=True
時 [-inf, inf] 中的值)或概率(即,from_logits=False
時 [0., 1.] 中的值)。
推薦用法:(放from_logits=True
)
使用tf.keras
API:
model.compile(
loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
....
)
作為獨立函數:
# Example 1:(batch_size = 1, number of samples = 4)
y_true = [0, 1, 0, 0]
y_pred = [-18.6, 0.51, 2.94, -12.8]
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True)
bce(y_true, y_pred).numpy()
0.865
# Example 2:(batch_size = 2, number of samples = 4)
y_true = [[0, 1], [0, 0]]
y_pred = [[-18.6, 0.51], [2.94, -12.8]]
# Using default 'auto'/'sum_over_batch_size' reduction type.
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True)
bce(y_true, y_pred).numpy()
0.865
# Using 'sample_weight' attribute
bce(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.243
# Using 'sum' reduction` type.
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True,
reduction=tf.keras.losses.Reduction.SUM)
bce(y_true, y_pred).numpy()
1.730
# Using 'none' reduction type.
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True,
reduction=tf.keras.losses.Reduction.NONE)
bce(y_true, y_pred).numpy()
array([0.235, 1.496], dtype=float32)
默認用法:(放from_logits=False
)
# Make the following updates to the above "Recommended Usage" section
# 1. Set `from_logits=False`
tf.keras.losses.BinaryCrossentropy() # OR ...('from_logits=False')
# 2. Update `y_pred` to use probabilities instead of logits
y_pred = [0.6, 0.3, 0.2, 0.8] # OR [[0.6, 0.3], [0.2, 0.8]]
相關用法
- Python tf.keras.losses.BinaryFocalCrossentropy用法及代碼示例
- Python tf.keras.losses.MeanAbsoluteError用法及代碼示例
- Python tf.keras.losses.huber用法及代碼示例
- Python tf.keras.losses.log_cosh用法及代碼示例
- Python tf.keras.losses.categorical_hinge用法及代碼示例
- Python tf.keras.losses.cosine_similarity用法及代碼示例
- Python tf.keras.losses.Huber用法及代碼示例
- Python tf.keras.losses.LogCosh用法及代碼示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代碼示例
- Python tf.keras.losses.get用法及代碼示例
- Python tf.keras.losses.CosineSimilarity用法及代碼示例
- Python tf.keras.losses.Hinge用法及代碼示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.KLDivergence用法及代碼示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代碼示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.MeanSquaredError用法及代碼示例
- Python tf.keras.losses.SquaredHinge用法及代碼示例
- Python tf.keras.losses.Poisson用法及代碼示例
- Python tf.keras.losses.CategoricalHinge用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.BinaryCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。