當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.estimator.MultiLabelHead用法及代碼示例


為多標簽分類創建Head

繼承自:Head

用法

tf.estimator.MultiLabelHead(
    n_classes, weight_column=None, thresholds=None, label_vocabulary=None,
    loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE, loss_fn=None,
    classes_for_class_based_metrics=None, name=None
)

參數

  • n_classes 類數,必須大於 1(對於 1 個類,使用 BinaryClassHead )。
  • weight_column tf.feature_column.numeric_column 創建的字符串或 NumericColumn 定義表示權重的特征列。它用於在訓練期間減輕重量或增加示例。它將乘以示例的損失。 Per-class 不支持加權。
  • thresholds (0, 1) 範圍內的可迭代浮點數。針對每個閾值評估準確度、精確度和召回指標。閾值應用於預測概率,即高於閾值是 true ,低於閾值是 false
  • label_vocabulary 字符串列表表示可能的標簽值。如果沒有給出,這意味著標簽已經被編碼為 [0, n_classes) 或 multi-hot 張量內的整數。如果給定,標簽必須是 SparseTensor string 類型並且在 label_vocabulary 中具有任何值。如果沒有提供詞匯並且標簽是字符串,也會出現錯誤。
  • loss_reduction tf.losses.Reduction 之一,除了 NONE 。決定如何減少批量訓練損失。默認為 SUM_OVER_BATCH_SIZE ,即損失的加權總和除以批量大小。
  • loss_fn 可選的損失函數。
  • classes_for_class_based_metrics 對其評估 per-class 指標的整數類 ID 或字符串類名稱的列表。如果是整數,則都必須在 [0, n_classes - 1] 範圍內。如果是字符串,則都必須在 label_vocabulary 中。
  • name 頭名。如果提供,摘要和指標鍵將以 "/" + name 為後綴。創建操作時也用作name_scope

屬性

  • logits_dimension 有關詳細信息,請參閱base_head.Head
  • loss_reduction 有關詳細信息,請參閱base_head.Head
  • name 有關詳細信息,請參閱base_head.Head

多標簽分類處理每個示例可能具有來自離散集合的零個或多個相關標簽的情況。這與 MultiClassHead 不同,每個示例隻有一個標簽。

對類使用 sigmoid_cross_entropy 損失平均值,對批次使用加權和。也就是說,如果輸入 logits 的形狀為 [batch_size, n_classes] ,則損失是 n_classes 的平均值和 batch_size 的加權和。

頭部期望 logits 形狀為 [D0, D1, ... DN, n_classes] 。在許多應用程序中,形狀是 [batch_size, n_classes]

標簽可以是:

  • 形狀為 [D0, D1, ... DN, n_classes] 的 multi-hot 張量
  • 類索引的整數SparseTensordense_shape 必須是 [D0, D1, ... DN, ?][0, n_classes) 中的值。
  • 如果給定 label_vocabulary,則為字符串 SparseTensordense_shape 必須是 [D0, D1, ... DN, ?]label_vocabulary 或形狀為 [D0, D1, ... DN, n_classes] 的 multi-hot 張量內的值。

如果指定了 weight_column,則權重的形狀必須為 [D0, D1, ... DN][D0, D1, ... DN, 1]

還支持自定義 loss_fnloss_fn(labels, logits)(labels, logits, features) 作為參數並返回形狀為 [D0, D1, ... DN, 1] 的未減少損失。 loss_fn 必須支持形狀為 [D0, D1, ... DN, n_classes] 的指標 labels。即,頭部將 label_vocabulary 應用於輸入標簽,然後將它們傳遞給 loss_fn

用法:

n_classes = 2
head = tf.estimator.MultiLabelHead(n_classes)
logits = np.array([[-1., 1.], [-1.5, 1.5]], dtype=np.float32)
labels = np.array([[1, 0], [1, 1]], dtype=np.int64)
features = {'x':np.array([[41], [42]], dtype=np.int32)}
# expected_loss = sum(_sigmoid_cross_entropy(labels, logits)) / batch_size
#               = sum(1.31326169, 0.9514133) / 2 = 1.13
loss = head.loss(labels, logits, features=features)
print('{:.2f}'.format(loss.numpy()))
1.13
eval_metrics = head.metrics()
updated_metrics = head.update_metrics(
  eval_metrics, features, logits, labels)
for k in sorted(updated_metrics):
 print('{}:{:.2f}'.format(k, updated_metrics[k].result().numpy()))
auc:0.33
auc_precision_recall:0.77
average_loss:1.13
preds = head.predictions(logits)
print(preds['logits'])
tf.Tensor(
  [[-1.   1. ]
   [-1.5  1.5]], shape=(2, 2), dtype=float32)

與罐裝估算器一起使用:

my_head = tf.estimator.MultiLabelHead(n_classes=3)
my_estimator = tf.estimator.DNNEstimator(
    head=my_head,
    hidden_units=...,
    feature_columns=...)

它也可以與自定義 model_fn 一起使用。例子:

def _my_model_fn(features, labels, mode):
  my_head = tf.estimator.MultiLabelHead(n_classes=3)
  logits = tf.keras.Model(...)(features)

  return my_head.create_estimator_spec(
      features=features,
      mode=mode,
      labels=labels,
      optimizer=tf.keras.optimizers.Adagrad(lr=0.1),
      logits=logits)

my_estimator = tf.estimator.Estimator(model_fn=_my_model_fn)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.estimator.MultiLabelHead。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。