當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.metrics.SparseCategoricalCrossentropy用法及代碼示例


計算標簽和預測之間的交叉熵度量。

繼承自:MeanMetricWrapperMeanMetricLayerModule

用法

tf.keras.metrics.SparseCategoricalCrossentropy(
    name='sparse_categorical_crossentropy', dtype=None, from_logits=False,
    axis=-1
)

參數

  • name (可選)指標實例的字符串名稱。
  • dtype (可選)度量結果的數據類型。
  • from_logits (可選)輸出是否預期為 logits 張量。默認情況下,我們認為輸出編碼概率分布。
  • axis (可選)默認為 -1。計算指標的維度。

當有兩個或更多標簽類時,使用此交叉熵度量。我們希望標簽以整數形式提供。如果您想使用one-hot 表示提供標簽,請使用CategoricalCrossentropy 度量。對於 y_pred ,每個特征應該有 # classes 浮點值,對於 y_true ,每個特征應該有一個浮點值。

在下麵的代碼段中,每個示例都有一個浮點值 y_true# classes 每個示例的浮點值 y_predy_true 的形狀是 [batch_size]y_pred 的形狀是 [batch_size, num_classes]

單機使用:

# y_true = one_hot(y_true) = [[0, 1, 0], [0, 0, 1]]
# logits = log(y_pred)
# softmax = exp(logits) / sum(exp(logits), axis=-1)
# softmax = [[0.05, 0.95, EPSILON], [0.1, 0.8, 0.1]]
# xent = -sum(y * log(softmax), 1)
# log(softmax) = [[-2.9957, -0.0513, -16.1181],
#                [-2.3026, -0.2231, -2.3026]]
# y_true * log(softmax) = [[0, -0.0513, 0], [0, 0, -2.3026]]
# xent = [0.0513, 2.3026]
# Reduced xent = (0.0513 + 2.3026) / 2
m = tf.keras.metrics.SparseCategoricalCrossentropy()
m.update_state([1, 2],
               [[0.05, 0.95, 0], [0.1, 0.8, 0.1]])
m.result().numpy()
1.1769392
m.reset_state()
m.update_state([1, 2],
               [[0.05, 0.95, 0], [0.1, 0.8, 0.1]],
               sample_weight=tf.constant([0.3, 0.7]))
m.result().numpy()
1.6271976

compile() API 的用法:

model.compile(
  optimizer='sgd',
  loss='mse',
  metrics=[tf.keras.metrics.SparseCategoricalCrossentropy()])

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.metrics.SparseCategoricalCrossentropy。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。