當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python tf.keras.metrics.kl_divergence用法及代碼示例

計算 y_truey_pred 之間的 Kullback-Leibler 散度損失。

用法

tf.keras.metrics.kl_divergence(
    y_true, y_pred
)

參數

  • y_true 真實目標的張量。
  • y_pred 預測目標的張量。

返回

  • 有損失的Tensor

拋出

  • TypeError 如果 y_true 不能轉換為 y_pred.dtype

loss = y_true * log(y_true / y_pred)

看:https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence

單機使用:

y_true = np.random.randint(0, 2, size=(2, 3)).astype(np.float64)
y_pred = np.random.random(size=(2, 3))
loss = tf.keras.losses.kullback_leibler_divergence(y_true, y_pred)
assert loss.shape == (2,)
y_true = tf.keras.backend.clip(y_true, 1e-7, 1)
y_pred = tf.keras.backend.clip(y_pred, 1e-7, 1)
assert np.array_equal(
    loss.numpy(), np.sum(y_true * np.log(y_true / y_pred), axis=-1))

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.metrics.kl_divergence。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。