當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.losses.Huber用法及代碼示例


計算 y_truey_pred 之間的 Huber 損失。

繼承自:Loss

用法

tf.keras.losses.Huber(
    delta=1.0, reduction=losses_utils.ReductionV2.AUTO, name='huber_loss'
)

參數

  • delta 浮點數,Huber 損失函數從二次變為線性的點。
  • reduction 類型tf.keras.losses.Reduction適用於損失。默認值為AUTO.AUTO表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras compilefit, 使用AUTO或者SUM_OVER_BATCH_SIZE將引發錯誤。請參閱此自定義訓練教程更多細節。
  • name 實例的可選名稱。默認為'huber_loss'。

對於 error = y_true - y_pred 中的每個值 x:

loss = 0.5 * x^2                  if |x| <= d
loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d

其中 d 是delta.看:https://en.wikipedia.org/wiki/Huber_loss

單機使用:

y_true = [[0, 1], [0, 0]]
y_pred = [[0.6, 0.4], [0.4, 0.6]]
# Using 'auto'/'sum_over_batch_size' reduction type.
h = tf.keras.losses.Huber()
h(y_true, y_pred).numpy()
0.155
# Calling with 'sample_weight'.
h(y_true, y_pred, sample_weight=[1, 0]).numpy()
0.09
# Using 'sum' reduction type.
h = tf.keras.losses.Huber(
    reduction=tf.keras.losses.Reduction.SUM)
h(y_true, y_pred).numpy()
0.31
# Using 'none' reduction type.
h = tf.keras.losses.Huber(
    reduction=tf.keras.losses.Reduction.NONE)
h(y_true, y_pred).numpy()
array([0.18, 0.13], dtype=float32)

compile() API 的用法:

model.compile(optimizer='sgd', loss=tf.keras.losses.Huber())

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.Huber。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。