当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.metrics.KLDivergence用法及代码示例


计算 y_truey_pred 之间的 Kullback-Leibler 散度度量。

继承自:MeanMetricWrapperMeanMetricLayerModule

用法

tf.keras.metrics.KLDivergence(
    name='kullback_leibler_divergence', dtype=None
)

参数

  • name (可选)指标实例的字符串名称。
  • dtype (可选)度量结果的数据类型。

metric = y_true * log(y_true / y_pred)

单机使用:

m = tf.keras.metrics.KLDivergence()
m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]])
m.result().numpy()
0.45814306
m.reset_state()
m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]],
               sample_weight=[1, 0])
m.result().numpy()
0.9162892

compile() API 的用法:

model.compile(optimizer='sgd',
              loss='mse',
              metrics=[tf.keras.metrics.KLDivergence()])

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.metrics.KLDivergence。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。