计算分类交叉熵损失。
用法
tf.keras.metrics.categorical_crossentropy(
y_true, y_pred, from_logits=False, label_smoothing=0.0, axis=-1
)
参数
-
y_true
one-hot 真实目标的张量。 -
y_pred
预测目标的张量。 -
from_logits
y_pred
是否预期为 logits 张量。默认情况下,我们假设y_pred
对概率分布进行编码。 -
label_smoothing
浮点数在 [0, 1] 中。如果 >0
然后平滑标签。例如,如果0.1
,则将0.1 / num_classes
用于非目标标签,将0.9 + 0.1 / num_classes
用于目标标签。 -
axis
默认为 -1。计算熵的维度。
返回
- 分类交叉熵损失值。
单机使用:
y_true = [[0, 1, 0], [0, 0, 1]]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
loss = tf.keras.losses.categorical_crossentropy(y_true, y_pred)
assert loss.shape == (2,)
loss.numpy()
array([0.0513, 2.303], dtype=float32)
相关用法
- Python tf.keras.metrics.categorical_accuracy用法及代码示例
- Python tf.keras.metrics.Mean.merge_state用法及代码示例
- Python tf.keras.metrics.Hinge用法及代码示例
- Python tf.keras.metrics.SparseCategoricalAccuracy.merge_state用法及代码示例
- Python tf.keras.metrics.RootMeanSquaredError用法及代码示例
- Python tf.keras.metrics.SparseCategoricalCrossentropy.merge_state用法及代码示例
- Python tf.keras.metrics.sparse_categorical_accuracy用法及代码示例
- Python tf.keras.metrics.FalseNegatives用法及代码示例
- Python tf.keras.metrics.TrueNegatives用法及代码示例
- Python tf.keras.metrics.RecallAtPrecision.merge_state用法及代码示例
- Python tf.keras.metrics.SpecificityAtSensitivity用法及代码示例
- Python tf.keras.metrics.Mean用法及代码示例
- Python tf.keras.metrics.poisson用法及代码示例
- Python tf.keras.metrics.LogCoshError用法及代码示例
- Python tf.keras.metrics.MeanSquaredLogarithmicError用法及代码示例
- Python tf.keras.metrics.FalsePositives.merge_state用法及代码示例
- Python tf.keras.metrics.OneHotMeanIoU.merge_state用法及代码示例
- Python tf.keras.metrics.TopKCategoricalAccuracy用法及代码示例
- Python tf.keras.metrics.Hinge.merge_state用法及代码示例
- Python tf.keras.metrics.IoU用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.metrics.categorical_crossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。