當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Python tf.keras.metrics.KLDivergence用法及代碼示例

計算 y_truey_pred 之間的 Kullback-Leibler 散度度量。

繼承自:MeanMetricWrapperMeanMetricLayerModule

用法

tf.keras.metrics.KLDivergence(
    name='kullback_leibler_divergence', dtype=None
)

參數

  • name (可選)指標實例的字符串名稱。
  • dtype (可選)度量結果的數據類型。

metric = y_true * log(y_true / y_pred)

單機使用:

m = tf.keras.metrics.KLDivergence()
m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]])
m.result().numpy()
0.45814306
m.reset_state()
m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]],
               sample_weight=[1, 0])
m.result().numpy()
0.9162892

compile() API 的用法:

model.compile(optimizer='sgd',
              loss='mse',
              metrics=[tf.keras.metrics.KLDivergence()])

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.metrics.KLDivergence。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。