当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.losses.CosineSimilarity用法及代码示例


计算标签和预测之间的余弦相似度。

继承自:Loss

用法

tf.keras.losses.CosineSimilarity(
    axis=-1, reduction=losses_utils.ReductionV2.AUTO,
    name='cosine_similarity'
)

参数

  • axis 计算余弦相似度的轴(特征轴)。默认为 -1。
  • reduction 类型tf.keras.losses.Reduction适用于损失。默认值为AUTO.AUTO表示缩减选项将由使用上下文确定。对于几乎所有情况,这默认为SUM_OVER_BATCH_SIZE.当与tf.distribute.Strategy,在内置训练循环之外,例如tf.keras compilefit, 使用AUTO或者SUM_OVER_BATCH_SIZE将引发错误。请参阅此自定义训练教程更多细节。
  • name 实例的可选名称。

请注意,它是介于 -1 和 1 之间的数字。当它是介于 -1 和 0 之间的负数时,0 表示正交性,接近 -1 的值表示更大的相似性。接近 1 的值表示更大的差异。这使得它可以在您尝试最大化预测和目标之间的接近度的设置中用作损失函数。如果 y_truey_pred 是零向量,则无论预测与目标之间的接近程度如何,余弦相似度都将为 0。

loss = -sum(l2_norm(y_true) * l2_norm(y_pred))

单机使用:

y_true = [[0., 1.], [1., 1.]]
y_pred = [[1., 0.], [1., 1.]]
# Using 'auto'/'sum_over_batch_size' reduction type.
cosine_loss = tf.keras.losses.CosineSimilarity(axis=1)
# l2_norm(y_true) = [[0., 1.], [1./1.414, 1./1.414]]
# l2_norm(y_pred) = [[1., 0.], [1./1.414, 1./1.414]]
# l2_norm(y_true) . l2_norm(y_pred) = [[0., 0.], [0.5, 0.5]]
# loss = mean(sum(l2_norm(y_true) . l2_norm(y_pred), axis=1))
#       = -((0. + 0.) +  (0.5 + 0.5)) / 2
cosine_loss(y_true, y_pred).numpy()
-0.5
# Calling with 'sample_weight'.
cosine_loss(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
-0.0999
# Using 'sum' reduction type.
cosine_loss = tf.keras.losses.CosineSimilarity(axis=1,
    reduction=tf.keras.losses.Reduction.SUM)
cosine_loss(y_true, y_pred).numpy()
-0.999
# Using 'none' reduction type.
cosine_loss = tf.keras.losses.CosineSimilarity(axis=1,
    reduction=tf.keras.losses.Reduction.NONE)
cosine_loss(y_true, y_pred).numpy()
array([-0., -0.999], dtype=float32)

compile() API 的用法:

model.compile(optimizer='sgd', loss=tf.keras.losses.CosineSimilarity(axis=1))

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.losses.CosineSimilarity。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。