預測誤差的雙曲餘弦的對數。
用法
tf.keras.losses.log_cosh(
y_true, y_pred
)
參數
-
y_true
基本事實值。形狀 =[batch_size, d0, .. dN]
。 -
y_pred
預測值。形狀 =[batch_size, d0, .. dN]
。
返回
-
Logcosh 錯誤值。形狀 =
[batch_size, d0, .. dN-1]
。
log(cosh(x))
對於小 x
大約等於 (x ** 2) / 2
,對於大 x
大約等於 abs(x) - log(2)
。這意味著'logcosh' 的工作原理與均方誤差相似,但不會受到偶爾嚴重不正確的預測的強烈影響。
單機使用:
y_true = np.random.random(size=(2, 3))
y_pred = np.random.random(size=(2, 3))
loss = tf.keras.losses.logcosh(y_true, y_pred)
assert loss.shape == (2,)
x = y_pred - y_true
assert np.allclose(
loss.numpy(),
np.mean(x + np.log(np.exp(-2. * x) + 1.) - math_ops.log(2.), axis=-1),
atol=1e-5)
相關用法
- Python tf.keras.losses.MeanAbsoluteError用法及代碼示例
- Python tf.keras.losses.huber用法及代碼示例
- Python tf.keras.losses.BinaryCrossentropy用法及代碼示例
- Python tf.keras.losses.BinaryFocalCrossentropy用法及代碼示例
- Python tf.keras.losses.categorical_hinge用法及代碼示例
- Python tf.keras.losses.cosine_similarity用法及代碼示例
- Python tf.keras.losses.Huber用法及代碼示例
- Python tf.keras.losses.LogCosh用法及代碼示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代碼示例
- Python tf.keras.losses.get用法及代碼示例
- Python tf.keras.losses.CosineSimilarity用法及代碼示例
- Python tf.keras.losses.Hinge用法及代碼示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.KLDivergence用法及代碼示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代碼示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代碼示例
- Python tf.keras.losses.MeanSquaredError用法及代碼示例
- Python tf.keras.losses.SquaredHinge用法及代碼示例
- Python tf.keras.losses.Poisson用法及代碼示例
- Python tf.keras.losses.CategoricalHinge用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.losses.log_cosh。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。