当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.losses.CategoricalCrossentropy用法及代码示例


计算标签和预测之间的交叉熵损失。

继承自:Loss

用法

tf.keras.losses.CategoricalCrossentropy(
    from_logits=False, label_smoothing=0.0, axis=-1,
    reduction=losses_utils.ReductionV2.AUTO,
    name='categorical_crossentropy'
)

参数

  • from_logits y_pred 是否预期为 logits 张量。默认情况下,我们假设 y_pred 对概率分布进行编码。
  • label_smoothing 浮点数在 [0, 1] 中。当 > 0 时,标签值会被平滑,这意味着标签值的置信度会放松。例如,如果 0.1 ,则将 0.1 / num_classes 用于非目标标签,将 0.9 + 0.1 / num_classes 用于目标标签。
  • axis 计算交叉熵的轴(特征轴)。默认为 -1。
  • reduction 类型tf.keras.losses.Reduction适用于损失。默认值为AUTO.AUTO表示缩减选项将由使用上下文确定。对于几乎所有情况,这默认为SUM_OVER_BATCH_SIZE.当与tf.distribute.Strategy,在内置训练循环之外,例如tf.keras compilefit, 使用AUTO或者SUM_OVER_BATCH_SIZE将引发错误。请参阅此自定义训练教程更多细节。
  • name 实例的可选名称。默认为'categorical_crossentropy'。

当有两个或多个标签类时使用此交叉熵损失函数。我们希望以one_hot 表示形式提供标签。如果您想以整数形式提供标签,请使用SparseCategoricalCrossentropy loss。每个特征应该有 # classes 浮点值。

在下面的代码片段中,每个示例都有 # classes 浮点值。 y_predy_true 的形状都是 [batch_size, num_classes]

单机使用:

y_true = [[0, 1, 0], [0, 0, 1]]
y_pred = [[0.05, 0.95, 0], [0.1, 0.8, 0.1]]
# Using 'auto'/'sum_over_batch_size' reduction type.
cce = tf.keras.losses.CategoricalCrossentropy()
cce(y_true, y_pred).numpy()
1.177
# Calling with 'sample_weight'.
cce(y_true, y_pred, sample_weight=tf.constant([0.3, 0.7])).numpy()
0.814
# Using 'sum' reduction type.
cce = tf.keras.losses.CategoricalCrossentropy(
    reduction=tf.keras.losses.Reduction.SUM)
cce(y_true, y_pred).numpy()
2.354
# Using 'none' reduction type.
cce = tf.keras.losses.CategoricalCrossentropy(
    reduction=tf.keras.losses.Reduction.NONE)
cce(y_true, y_pred).numpy()
array([0.0513, 2.303], dtype=float32)

compile() API 的用法:

model.compile(optimizer='sgd', loss=tf.keras.losses.CategoricalCrossentropy())

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.losses.CategoricalCrossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。