当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.metrics.categorical_crossentropy用法及代码示例


计算分类交叉熵损失。

用法

tf.keras.metrics.categorical_crossentropy(
    y_true, y_pred, from_logits=False, label_smoothing=0.0, axis=-1
)

参数

  • y_true one-hot 真实目标的张量。
  • y_pred 预测目标的张量。
  • from_logits y_pred 是否预期为 logits 张量。默认情况下,我们假设 y_pred 对概率分布进行编码。
  • label_smoothing 浮点数在 [0, 1] 中。如果 > 0 然后平滑标签。例如,如果 0.1 ,则将 0.1 / num_classes 用于非目标标签,将 0.9 + 0.1 / num_classes 用于目标标签。
  • axis 默认为 -1。计算熵的维度。

返回

  • 分类交叉熵损失值。

单机使用:

y_true = [[0, 1, 0], [0, 0, 1]]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
loss = tf.keras.losses.categorical_crossentropy(y_true, y_pred)
assert loss.shape == (2,)
loss.numpy()
array([0.0513, 2.303], dtype=float32)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.metrics.categorical_crossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。