为多类分类创建Head
。
继承自:Head
用法
tf.estimator.MultiClassHead(
n_classes, weight_column=None, label_vocabulary=None,
loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE, loss_fn=None, name=None
)
参数
-
n_classes
类数,必须大于 2(对于 2 个类,使用BinaryClassHead
)。 -
weight_column
由tf.feature_column.numeric_column
创建的字符串或NumericColumn
定义表示权重的特征列。它用于在训练期间减轻重量或增加示例。它将乘以示例的损失。 -
label_vocabulary
表示可能标签值的字符串列表或元组。如果没有给出,这意味着标签已经被编码为 [0, n_classes) 内的整数。如果给定,标签必须是字符串类型并且在label_vocabulary
中具有任何值。请注意,如果未提供label_vocabulary
但标签是字符串,则会引发错误。如果同时提供了n_classes
和label_vocabulary
,则label_vocabulary
应包含准确的n_classes
项。 -
loss_reduction
tf.losses.Reduction
之一,除了NONE
。决定如何减少批量训练损失。默认为SUM_OVER_BATCH_SIZE
,即损失的加权总和除以batch size * label_dimension
。 -
loss_fn
可选的损失函数。 -
name
头名。如果提供,摘要和指标键将以"/" + name
为后缀。创建操作时也用作name_scope
。
属性
-
logits_dimension
有关详细信息,请参阅base_head.Head
。 -
loss_reduction
有关详细信息,请参阅base_head.Head
。 -
name
有关详细信息,请参阅base_head.Head
。
使用 sparse_softmax_cross_entropy
损失。
头部期望 logits
形状为 [D0, D1, ... DN, n_classes]
。在许多应用程序中,形状是 [batch_size, n_classes]
。
labels
必须是稠密的 Tensor
且形状匹配 logits
,即 [D0, D1, ... DN, 1]
。如果给定 label_vocabulary
,则 labels
必须是带有词汇表值的字符串 Tensor
。如果未给出label_vocabulary
,则labels
必须是整数Tensor
,其值指定类索引。
如果指定了 weight_column
,则权重的形状必须为 [D0, D1, ... DN]
或 [D0, D1, ... DN, 1]
。
损失是输入维度的加权和。也就是说,如果输入标签的形状为 [batch_size, 1]
,则损失是 batch_size
上的加权和。
还支持自定义 loss_fn
。 loss_fn
将 (labels, logits)
或 (labels, logits, features, loss_reduction)
作为参数并返回形状为 [D0, D1, ... DN, 1]
的未减少损失。 loss_fn
必须支持形状为 [D0, D1, ... DN, 1]
的整数 labels
。即,头部将 label_vocabulary
应用于输入标签,然后将它们传递给 loss_fn
。
用法:
n_classes = 3
head = tf.estimator.MultiClassHead(n_classes)
logits = np.array(((10, 0, 0), (0, 10, 0),), dtype=np.float32)
labels = np.array(((1,), (1,)), dtype=np.int64)
features = {'x':np.array(((42,),), dtype=np.int32)}
# expected_loss = sum(cross_entropy(labels, logits)) / batch_size
# = sum(10, 0) / 2 = 5.
loss = head.loss(labels, logits, features=features)
print('{:.2f}'.format(loss.numpy()))
5.00
eval_metrics = head.metrics()
updated_metrics = head.update_metrics(
eval_metrics, features, logits, labels)
for k in sorted(updated_metrics):
print('{}:{:.2f}'.format(k, updated_metrics[k].result().numpy()))
accuracy:0.50
average_loss:5.00
preds = head.predictions(logits)
print(preds['logits'])
tf.Tensor(
[[10. 0. 0.]
[ 0. 10. 0.]], shape=(2, 3), dtype=float32)
与罐装估算器一起使用:
my_head = tf.estimator.MultiClassHead(n_classes=3)
my_estimator = tf.estimator.DNNEstimator(
head=my_head,
hidden_units=...,
feature_columns=...)
它也可以与自定义 model_fn
一起使用。例子:
def _my_model_fn(features, labels, mode):
my_head = tf.estimator.MultiClassHead(n_classes=3)
logits = tf.keras.Model(...)(features)
return my_head.create_estimator_spec(
features=features,
mode=mode,
labels=labels,
optimizer=tf.keras.optimizers.Adagrad(lr=0.1),
logits=logits)
my_estimator = tf.estimator.Estimator(model_fn=_my_model_fn)
相关用法
- Python tf.estimator.MultiHead用法及代码示例
- Python tf.estimator.MultiLabelHead用法及代码示例
- Python tf.estimator.TrainSpec用法及代码示例
- Python tf.estimator.LogisticRegressionHead用法及代码示例
- Python tf.estimator.PoissonRegressionHead用法及代码示例
- Python tf.estimator.WarmStartSettings用法及代码示例
- Python tf.estimator.experimental.stop_if_lower_hook用法及代码示例
- Python tf.estimator.RunConfig用法及代码示例
- Python tf.estimator.experimental.stop_if_no_increase_hook用法及代码示例
- Python tf.estimator.BaselineEstimator用法及代码示例
- Python tf.estimator.DNNLinearCombinedEstimator用法及代码示例
- Python tf.estimator.Estimator用法及代码示例
- Python tf.estimator.experimental.LinearSDCA用法及代码示例
- Python tf.estimator.experimental.RNNClassifier用法及代码示例
- Python tf.estimator.experimental.make_early_stopping_hook用法及代码示例
- Python tf.estimator.LinearRegressor用法及代码示例
- Python tf.estimator.LinearEstimator用法及代码示例
- Python tf.estimator.DNNClassifier用法及代码示例
- Python tf.estimator.BaselineClassifier用法及代码示例
- Python tf.estimator.experimental.stop_if_higher_hook用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.estimator.MultiClassHead。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。