当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.metrics.SparseCategoricalCrossentropy用法及代码示例


计算标签和预测之间的交叉熵度量。

继承自:MeanMetricWrapperMeanMetricLayerModule

用法

tf.keras.metrics.SparseCategoricalCrossentropy(
    name='sparse_categorical_crossentropy', dtype=None, from_logits=False,
    axis=-1
)

参数

  • name (可选)指标实例的字符串名称。
  • dtype (可选)度量结果的数据类型。
  • from_logits (可选)输出是否预期为 logits 张量。默认情况下,我们认为输出编码概率分布。
  • axis (可选)默认为 -1。计算指标的维度。

当有两个或更多标签类时,使用此交叉熵度量。我们希望标签以整数形式提供。如果您想使用one-hot 表示提供标签,请使用CategoricalCrossentropy 度量。对于 y_pred ,每个特征应该有 # classes 浮点值,对于 y_true ,每个特征应该有一个浮点值。

在下面的代码段中,每个示例都有一个浮点值 y_true# classes 每个示例的浮点值 y_predy_true 的形状是 [batch_size]y_pred 的形状是 [batch_size, num_classes]

单机使用:

# y_true = one_hot(y_true) = [[0, 1, 0], [0, 0, 1]]
# logits = log(y_pred)
# softmax = exp(logits) / sum(exp(logits), axis=-1)
# softmax = [[0.05, 0.95, EPSILON], [0.1, 0.8, 0.1]]
# xent = -sum(y * log(softmax), 1)
# log(softmax) = [[-2.9957, -0.0513, -16.1181],
#                [-2.3026, -0.2231, -2.3026]]
# y_true * log(softmax) = [[0, -0.0513, 0], [0, 0, -2.3026]]
# xent = [0.0513, 2.3026]
# Reduced xent = (0.0513 + 2.3026) / 2
m = tf.keras.metrics.SparseCategoricalCrossentropy()
m.update_state([1, 2],
               [[0.05, 0.95, 0], [0.1, 0.8, 0.1]])
m.result().numpy()
1.1769392
m.reset_state()
m.update_state([1, 2],
               [[0.05, 0.95, 0], [0.1, 0.8, 0.1]],
               sample_weight=tf.constant([0.3, 0.7]))
m.result().numpy()
1.6271976

compile() API 的用法:

model.compile(
  optimizer='sgd',
  loss='mse',
  metrics=[tf.keras.metrics.SparseCategoricalCrossentropy()])

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.metrics.SparseCategoricalCrossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。