当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.estimator.LogisticRegressionHead用法及代码示例


为逻辑回归创建 Head

继承自:RegressionHeadHead

用法

tf.estimator.LogisticRegressionHead(
    weight_column=None, loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE,
    name=None
)

参数

  • weight_column tf.feature_column.numeric_column 创建的字符串或 NumericColumn 定义表示权重的特征列。它用于在训练期间减轻重量或增加示例。它将乘以示例的损失。
  • loss_reduction tf.losses.Reduction 之一,除了 NONE 。决定如何减少批次和标签维度的训练损失。默认为 SUM_OVER_BATCH_SIZE ,即损失的加权总和除以 batch size * label_dimension
  • name 头的名字。如果提供,摘要和指标键将以 "/" + name 为后缀。创建操作时也用作name_scope

属性

  • logits_dimension 有关详细信息,请参阅base_head.Head
  • loss_reduction 有关详细信息,请参阅base_head.Head
  • name 有关详细信息,请参阅base_head.Head

使用 sigmoid_cross_entropy_with_logits 损失,与 BinaryClassHead 相同。与BinaryClassHead 相比的差异是:

  • 不支持 label_vocabulary 。相反,标签必须在 [0, 1] 范围内浮点数。
  • 不计算一些没有意义的指标,例如 AUC。
  • PREDICT 模式下,仅返回 logits 和预测 (=tf.sigmoid(logits)),而 BinaryClassHead 还返回概率、类和 class_ids。
  • 导出输出默认为 RegressionOutput ,而 BinaryClassHead 默认为 PredictOutput

头部期望 logits 形状为 [D0, D1, ... DN, 1] 。在许多应用程序中,形状是 [batch_size, 1]

labels 形状必须匹配 logits ,即 [D0, D1, ... DN][D0, D1, ... DN, 1]

如果指定了 weight_column,则权重的形状必须为 [D0, D1, ... DN][D0, D1, ... DN, 1]

这是作为广义线性模型实现的,请参阅 https://en.wikipedia.org/wiki/Generalized_linear_model

头部可以与罐装估计器一起使用。例子:

my_head = tf.estimator.LogisticRegressionHead()
my_estimator = tf.estimator.DNNEstimator(
    head=my_head,
    hidden_units=...,
    feature_columns=...)

它也可以与自定义 model_fn 一起使用。例子:

def _my_model_fn(features, labels, mode):
  my_head = tf.estimator.LogisticRegressionHead()
  logits = tf.keras.Model(...)(features)

  return my_head.create_estimator_spec(
      features=features,
      mode=mode,
      labels=labels,
      optimizer=tf.keras.optimizers.Adagrad(lr=0.1),
      logits=logits)

my_estimator = tf.estimator.Estimator(model_fn=_my_model_fn)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.estimator.LogisticRegressionHead。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。