計算標簽和預測之間的餘弦相似度。
繼承自:Loss
用法
tf.keras.losses.CosineSimilarity(
axis=-1, reduction=losses_utils.ReductionV2.AUTO,
name='cosine_similarity'
)
參數
-
axis
計算餘弦相似度的軸(特征軸)。默認為 -1。 -
reduction
類型tf.keras.losses.Reduction
適用於損失。默認值為AUTO
.AUTO
表示縮減選項將由使用上下文確定。對於幾乎所有情況,這默認為SUM_OVER_BATCH_SIZE
.當與tf.distribute.Strategy,在內置訓練循環之外,例如tf.keras
compile
和fit
, 使用AUTO
或者SUM_OVER_BATCH_SIZE
將引發錯誤。請參閱此自定義訓練教程更多細節。 -
name
實例的可選名稱。
請注意,它是介於 -1 和 1 之間的數字。當它是介於 -1 和 0 之間的負數時,0 表示正交性,接近 -1 的值表示更大的相似性。接近 1 的值表示更大的差異。這使得它可以在您嘗試最大化預測和目標之間的接近度的設置中用作損失函數。如果 y_true
或 y_pred
是零向量,則無論預測與目標之間的接近程度如何,餘弦相似度都將為 0。
loss = -sum(l2_norm(y_true) * l2_norm(y_pred))
單機使用:
y_true = [[0., 1.], [1., 1.]]
y_pred = [[1., 0.], [1., 1.]]
# Using 'auto'/'sum_over_batch_size' reduction type.
cosine_loss = tf.keras.losses.CosineSimilarity(axis=1)
# l2_norm(y_true) = [[0., 1.], [1./1.414, 1./1.414]]
# l2_norm(y_pred) = [[1., 0.], [1./1.414, 1./1.414]]
# l2_norm(y_true) . l2_norm(y_pred) = [[0., 0.], [0.5, 0.5]]
# loss = mean(sum(l2_norm(y_true) . l2_norm(y_pred), axis=1))
# = -((0. + 0.) + (0.5 + 0.5)) / 2
cosine_loss(y_true, y_pred).numpy()
-0.5
# Calling with 'sample_weight'.
cosine_loss(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
-0.0999
# Using 'sum' reduction type.
cosine_loss = tf.keras.losses.CosineSimilarity(axis=1,
reduction=tf.keras.losses.Reduction.SUM)
cosine_loss(y_true, y_pred).numpy()
-0.999
# Using 'none' reduction type.
cosine_loss = tf.keras.losses.CosineSimilarity(axis=1,
reduction=tf.keras.losses.Reduction.NONE)
cosine_loss(y_true, y_pred).numpy()
array([-0., -0.999], dtype=float32)
compile()
API 的用法:
model.compile(optimizer='sgd', loss=tf.keras.losses.CosineSimilarity(axis=1))
相關用法
- Python tf.keras.losses.CategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.CategoricalHinge用法及代碼示例
- Python tf.keras.losses.MeanAbsoluteError用法及代碼示例
- Python tf.keras.losses.huber用法及代碼示例
- Python tf.keras.losses.log_cosh用法及代碼示例
- Python tf.keras.losses.BinaryCrossentropy用法及代碼示例
- Python tf.keras.losses.BinaryFocalCrossentropy用法及代碼示例
- Python tf.keras.losses.categorical_hinge用法及代碼示例
- Python tf.keras.losses.cosine_similarity用法及代碼示例
- Python tf.keras.losses.Huber用法及代碼示例
- Python tf.keras.losses.LogCosh用法及代碼示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代碼示例
- Python tf.keras.losses.get用法及代碼示例
- Python tf.keras.losses.Hinge用法及代碼示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.KLDivergence用法及代碼示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代碼示例
- Python tf.keras.losses.MeanSquaredError用法及代碼示例
- Python tf.keras.losses.SquaredHinge用法及代碼示例
- Python tf.keras.losses.Poisson用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.CosineSimilarity。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。