當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.losses.BinaryFocalCrossentropy用法及代碼示例


計算真實標簽和預測之間的焦點 cross-entropy 損失。

繼承自:Loss

用法

tf.keras.losses.BinaryFocalCrossentropy(
    gamma=2.0, from_logits=False, label_smoothing=0.0, axis=-1,
    reduction=losses_utils.ReductionV2.AUTO,
    name='binary_focal_crossentropy'
)

參數

  • gamma 用於計算焦點因子的聚焦參數,默認為2.0如參考文獻中所述林等人,2018.
  • from_logits 是否翻譯y_pred作為一個張量羅 Git 值。默認情況下,我們假設y_pred是概率(即,在[0, 1])。
  • label_smoothing 浮點數在 [0, 1] 中。當 0 時,不會發生平滑。當 > 0 時,我們計算預測標簽和真實標簽的平滑版本之間的損失,其中平滑將標簽向 0.5 擠壓。 label_smoothing 的較大值對應於較重的平滑。
  • axis 計算交叉熵的軸(特征軸)。默認為 -1
  • reduction 類型tf.keras.losses.Reduction適用於損失。默認值為AUTO.AUTO表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras,compile()fit(), 使用SUM_OVER_BATCH_SIZE或者AUTO將引發錯誤。請參閱此自定義訓練教程更多細節。
  • name 操作的名稱。默認為'binary_focal_crossentropy'。

Binary cross-entropy loss 通常用於二元(0 或 1)分類任務。損失函數需要以下輸入:

  • y_true(真實標簽):這是 0 或 1。
  • y_pred(預測值):這是模型的預測,即單個浮點值,它或者代表一個 logit,(即,當 from_logits=True 時 [-inf, inf] 中的值)或概率(即, [0., 1.]from_logits=False 時的值)。

根據 Lin 等人,2018 年的說法,它有助於將 "focal factor" 應用於 down-weight 簡單示例並更多地關注困難示例。默認情況下,焦點張量計算如下:

focal_factor = (1 - output) ** gamma 用於 1 類 focal_factor = output ** gamma 用於 0 類,其中 gamma 是聚焦參數。當 gamma=0 時,這個函數相當於二元交叉熵損失。

使用compile() API:

model.compile(
  loss=tf.keras.losses.BinaryFocalCrossentropy(gamma=2.0, from_logits=True),
  ....
)

作為獨立函數:

# Example 1:(batch_size = 1, number of samples = 4)
y_true = [0, 1, 0, 0]
y_pred = [-18.6, 0.51, 2.94, -12.8]
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=2, from_logits=True)
loss(y_true, y_pred).numpy()
0.691
# Example 2:(batch_size = 2, number of samples = 4)
y_true = [[0, 1], [0, 0]]
y_pred = [[-18.6, 0.51], [2.94, -12.8]]
# Using default 'auto'/'sum_over_batch_size' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=3, from_logits=True)
loss(y_true, y_pred).numpy()
0.647
# Using 'sample_weight' attribute
loss(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.133
# Using 'sum' reduction` type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=4, from_logits=True,
    reduction=tf.keras.losses.Reduction.SUM)
loss(y_true, y_pred).numpy()
1.222
# Using 'none' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=5, from_logits=True,
    reduction=tf.keras.losses.Reduction.NONE)
loss(y_true, y_pred).numpy()
array([0.0017 1.1561], dtype=float32)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.BinaryFocalCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。