計算真實標簽和預測之間的焦點 cross-entropy 損失。
繼承自:Loss
用法
tf.keras.losses.BinaryFocalCrossentropy(
gamma=2.0, from_logits=False, label_smoothing=0.0, axis=-1,
reduction=losses_utils.ReductionV2.AUTO,
name='binary_focal_crossentropy'
)
參數
-
gamma
用於計算焦點因子的聚焦參數,默認為2.0
如參考文獻中所述林等人,2018. -
from_logits
是否翻譯y_pred
作為一個張量羅 Git 值。默認情況下,我們假設y_pred
是概率(即,在[0, 1]
)。 -
label_smoothing
浮點數在[0, 1]
中。當0
時,不會發生平滑。當 >0
時,我們計算預測標簽和真實標簽的平滑版本之間的損失,其中平滑將標簽向0.5
擠壓。label_smoothing
的較大值對應於較重的平滑。 -
axis
計算交叉熵的軸(特征軸)。默認為-1
。 -
reduction
類型tf.keras.losses.Reduction
適用於損失。默認值為AUTO
.AUTO
表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE
.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras
,compile()
和fit()
, 使用SUM_OVER_BATCH_SIZE
或者AUTO
將引發錯誤。請參閱此自定義訓練教程更多細節。 -
name
操作的名稱。默認為'binary_focal_crossentropy'。
Binary cross-entropy loss 通常用於二元(0 或 1)分類任務。損失函數需要以下輸入:
y_true
(真實標簽):這是 0 或 1。y_pred
(預測值):這是模型的預測,即單個浮點值,它或者代表一個 logit,(即,當from_logits=True
時 [-inf, inf] 中的值)或概率(即,[0., 1.]
當from_logits=False
時的值)。
根據 Lin 等人,2018 年的說法,它有助於將 "focal factor" 應用於 down-weight 簡單示例並更多地關注困難示例。默認情況下,焦點張量計算如下:
focal_factor = (1 - output) ** gamma
用於 1 類 focal_factor = output ** gamma
用於 0 類,其中 gamma
是聚焦參數。當 gamma=0
時,這個函數相當於二元交叉熵損失。
使用compile()
API:
model.compile(
loss=tf.keras.losses.BinaryFocalCrossentropy(gamma=2.0, from_logits=True),
....
)
作為獨立函數:
# Example 1:(batch_size = 1, number of samples = 4)
y_true = [0, 1, 0, 0]
y_pred = [-18.6, 0.51, 2.94, -12.8]
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=2, from_logits=True)
loss(y_true, y_pred).numpy()
0.691
# Example 2:(batch_size = 2, number of samples = 4)
y_true = [[0, 1], [0, 0]]
y_pred = [[-18.6, 0.51], [2.94, -12.8]]
# Using default 'auto'/'sum_over_batch_size' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=3, from_logits=True)
loss(y_true, y_pred).numpy()
0.647
# Using 'sample_weight' attribute
loss(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.133
# Using 'sum' reduction` type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=4, from_logits=True,
reduction=tf.keras.losses.Reduction.SUM)
loss(y_true, y_pred).numpy()
1.222
# Using 'none' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=5, from_logits=True,
reduction=tf.keras.losses.Reduction.NONE)
loss(y_true, y_pred).numpy()
array([0.0017 1.1561], dtype=float32)
相關用法
- Python tf.keras.losses.BinaryCrossentropy用法及代碼示例
- Python tf.keras.losses.MeanAbsoluteError用法及代碼示例
- Python tf.keras.losses.huber用法及代碼示例
- Python tf.keras.losses.log_cosh用法及代碼示例
- Python tf.keras.losses.categorical_hinge用法及代碼示例
- Python tf.keras.losses.cosine_similarity用法及代碼示例
- Python tf.keras.losses.Huber用法及代碼示例
- Python tf.keras.losses.LogCosh用法及代碼示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代碼示例
- Python tf.keras.losses.get用法及代碼示例
- Python tf.keras.losses.CosineSimilarity用法及代碼示例
- Python tf.keras.losses.Hinge用法及代碼示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.KLDivergence用法及代碼示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代碼示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.MeanSquaredError用法及代碼示例
- Python tf.keras.losses.SquaredHinge用法及代碼示例
- Python tf.keras.losses.Poisson用法及代碼示例
- Python tf.keras.losses.CategoricalHinge用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.BinaryFocalCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。