计算 y_true
和 y_pred
之间的 Kullback-Leibler 散度损失。
继承自:Loss
用法
tf.keras.losses.KLDivergence(
reduction=losses_utils.ReductionV2.AUTO, name='kl_divergence'
)
参数
-
reduction
类型tf.keras.losses.Reduction
适用于损失。默认值为AUTO
.AUTO
表示缩减选项将由使用上下文确定。对于几乎所有情况,这默认为SUM_OVER_BATCH_SIZE
.当与tf.distribute.Strategy,在内置训练循环之外,例如tf.keras
compile
和fit
, 使用AUTO
或者SUM_OVER_BATCH_SIZE
将引发错误。请参阅此自定义训练教程更多细节。 -
name
实例的可选名称。默认为'kl_divergence'。
loss = y_true * log(y_true / y_pred)
看:https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence
单机使用:
y_true = [[0, 1], [0, 0]]
y_pred = [[0.6, 0.4], [0.4, 0.6]]
# Using 'auto'/'sum_over_batch_size' reduction type.
kl = tf.keras.losses.KLDivergence()
kl(y_true, y_pred).numpy()
0.458
# Calling with 'sample_weight'.
kl(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.366
# Using 'sum' reduction type.
kl = tf.keras.losses.KLDivergence(
reduction=tf.keras.losses.Reduction.SUM)
kl(y_true, y_pred).numpy()
0.916
# Using 'none' reduction type.
kl = tf.keras.losses.KLDivergence(
reduction=tf.keras.losses.Reduction.NONE)
kl(y_true, y_pred).numpy()
array([0.916, -3.08e-06], dtype=float32)
compile()
API 的用法:
model.compile(optimizer='sgd', loss=tf.keras.losses.KLDivergence())
相关用法
- Python tf.keras.losses.MeanAbsoluteError用法及代码示例
- Python tf.keras.losses.huber用法及代码示例
- Python tf.keras.losses.log_cosh用法及代码示例
- Python tf.keras.losses.BinaryCrossentropy用法及代码示例
- Python tf.keras.losses.BinaryFocalCrossentropy用法及代码示例
- Python tf.keras.losses.categorical_hinge用法及代码示例
- Python tf.keras.losses.cosine_similarity用法及代码示例
- Python tf.keras.losses.Huber用法及代码示例
- Python tf.keras.losses.LogCosh用法及代码示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代码示例
- Python tf.keras.losses.get用法及代码示例
- Python tf.keras.losses.CosineSimilarity用法及代码示例
- Python tf.keras.losses.Hinge用法及代码示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代码示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代码示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代码示例
- Python tf.keras.losses.MeanSquaredError用法及代码示例
- Python tf.keras.losses.SquaredHinge用法及代码示例
- Python tf.keras.losses.Poisson用法及代码示例
- Python tf.keras.losses.CategoricalHinge用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.losses.KLDivergence。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。