當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.estimator.LogisticRegressionHead用法及代碼示例


為邏輯回歸創建 Head

繼承自:RegressionHeadHead

用法

tf.estimator.LogisticRegressionHead(
    weight_column=None, loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE,
    name=None
)

參數

  • weight_column tf.feature_column.numeric_column 創建的字符串或 NumericColumn 定義表示權重的特征列。它用於在訓練期間減輕重量或增加示例。它將乘以示例的損失。
  • loss_reduction tf.losses.Reduction 之一,除了 NONE 。決定如何減少批次和標簽維度的訓練損失。默認為 SUM_OVER_BATCH_SIZE ,即損失的加權總和除以 batch size * label_dimension
  • name 頭的名字。如果提供,摘要和指標鍵將以 "/" + name 為後綴。創建操作時也用作name_scope

屬性

  • logits_dimension 有關詳細信息,請參閱base_head.Head
  • loss_reduction 有關詳細信息,請參閱base_head.Head
  • name 有關詳細信息,請參閱base_head.Head

使用 sigmoid_cross_entropy_with_logits 損失,與 BinaryClassHead 相同。與BinaryClassHead 相比的差異是:

  • 不支持 label_vocabulary 。相反,標簽必須在 [0, 1] 範圍內浮點數。
  • 不計算一些沒有意義的指標,例如 AUC。
  • PREDICT 模式下,僅返回 logits 和預測 (=tf.sigmoid(logits)),而 BinaryClassHead 還返回概率、類和 class_ids。
  • 導出輸出默認為 RegressionOutput ,而 BinaryClassHead 默認為 PredictOutput

頭部期望 logits 形狀為 [D0, D1, ... DN, 1] 。在許多應用程序中,形狀是 [batch_size, 1]

labels 形狀必須匹配 logits ,即 [D0, D1, ... DN][D0, D1, ... DN, 1]

如果指定了 weight_column,則權重的形狀必須為 [D0, D1, ... DN][D0, D1, ... DN, 1]

這是作為廣義線性模型實現的,請參閱 https://en.wikipedia.org/wiki/Generalized_linear_model

頭部可以與罐裝估計器一起使用。例子:

my_head = tf.estimator.LogisticRegressionHead()
my_estimator = tf.estimator.DNNEstimator(
    head=my_head,
    hidden_units=...,
    feature_columns=...)

它也可以與自定義 model_fn 一起使用。例子:

def _my_model_fn(features, labels, mode):
  my_head = tf.estimator.LogisticRegressionHead()
  logits = tf.keras.Model(...)(features)

  return my_head.create_estimator_spec(
      features=features,
      mode=mode,
      labels=labels,
      optimizer=tf.keras.optimizers.Adagrad(lr=0.1),
      logits=logits)

my_estimator = tf.estimator.Estimator(model_fn=_my_model_fn)

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.estimator.LogisticRegressionHead。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。