当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.estimator.BinaryClassHead用法及代码示例


为单标签二进制分类创建Head

继承自:Head

用法

tf.estimator.BinaryClassHead(
    weight_column=None, thresholds=None, label_vocabulary=None,
    loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE, loss_fn=None, name=None
)

参数

  • weight_column tf.feature_column.numeric_column 创建的字符串或 NumericColumn 定义表示权重的特征列。它用于在训练期间减轻重量或增加示例。它将乘以示例的损失。
  • thresholds (0, 1) 范围内的可迭代浮点数。对于精度和召回率等二元分类指标,会为每个阈值生成一个评估指标。该阈值应用于逻辑值以确定二进制分类(即,高于阈值的是 true ,低于阈值的是 false
  • label_vocabulary 表示可能标签值的字符串列表或元组。如果没有给出,这意味着标签已经在 [0, 1] 内编码。如果给定,标签必须是字符串类型并且在 label_vocabulary 中具有任何值。请注意,如果未提供 label_vocabulary 但标签是字符串,则会引发错误。
  • loss_reduction tf.losses.Reduction 之一,除了 NONE 。决定如何减少批量训练损失。默认为 SUM_OVER_BATCH_SIZE ,即损失的加权总和除以 batch size * label_dimension
  • loss_fn 可选的损失函数。
  • name 头名。如果提供,摘要和指标键将以 "/" + name 为后缀。创建操作时也用作name_scope

属性

  • logits_dimension 有关详细信息,请参阅base_head.Head
  • loss_reduction 有关详细信息,请参阅base_head.Head
  • name 有关详细信息,请参阅base_head.Head

使用 sigmoid_cross_entropy_with_logits 损失。

头部期望 logits 形状为 [D0, D1, ... DN, 1] 。在许多应用程序中,形状是 [batch_size, 1]

labels 必须是稠密的 Tensor 且形状匹配 logits ,即 [D0, D1, ... DN, 1] 。如果给定 label_vocabulary,则 labels 必须是带有词汇表值的字符串 Tensor。如果没有给出 label_vocabulary,则 labels 必须是浮点数 Tensor ,其值在区间 [0, 1] 中。

如果指定了 weight_column,则权重的形状必须为 [D0, D1, ... DN][D0, D1, ... DN, 1]

损失是输入维度的加权和。也就是说,如果输入标签的形状为 [batch_size, 1] ,则损失是 batch_size 上的加权和。

还支持自定义 loss_fnloss_fn(labels, logits)(labels, logits, features, loss_reduction) 作为参数并返回形状为 [D0, D1, ... DN, 1] 的损失。 loss_fn 必须支持形状为 [D0, D1, ... DN, 1] 的浮点 labels 。即,头部将 label_vocabulary 应用于输入标签,然后将它们传递给 loss_fn

用法:

head = tf.estimator.BinaryClassHead()
logits = np.array(((45,), (-41,),), dtype=np.float32)
labels = np.array(((1,), (1,),), dtype=np.int32)
features = {'x':np.array(((42,),), dtype=np.float32)}
# expected_loss = sum(cross_entropy(labels, logits)) / batch_size
#               = sum(0, 41) / 2 = 41 / 2 = 20.50
loss = head.loss(labels, logits, features=features)
print('{:.2f}'.format(loss.numpy()))
20.50
eval_metrics = head.metrics()
updated_metrics = head.update_metrics(
  eval_metrics, features, logits, labels)
for k in sorted(updated_metrics):
 print('{}:{:.2f}'.format(k, updated_metrics[k].result().numpy()))
  accuracy:0.50
  accuracy_baseline:1.00
  auc:0.00
  auc_precision_recall:1.00
  average_loss:20.50
  label/mean:1.00
  precision:1.00
  prediction/mean:0.50
  recall:0.50
preds = head.predictions(logits)
print(preds['logits'])
tf.Tensor(
  [[ 45.]
   [-41.]], shape=(2, 1), dtype=float32)

与罐装估算器一起使用:

my_head = tf.estimator.BinaryClassHead()
my_estimator = tf.estimator.DNNEstimator(
    head=my_head,
    hidden_units=...,
    feature_columns=...)

它也可以与自定义 model_fn 一起使用。例子:

def _my_model_fn(features, labels, mode):
  my_head = tf.estimator.BinaryClassHead()
  logits = tf.keras.Model(...)(features)

  return my_head.create_estimator_spec(
      features=features,
      mode=mode,
      labels=labels,
      optimizer=tf.keras.optimizers.Adagrad(lr=0.1),
      logits=logits)

my_estimator = tf.estimator.Estimator(model_fn=_my_model_fn)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.estimator.BinaryClassHead。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。