使用 mean_squared_error
損失為回歸創建 Head
。
繼承自:Head
用法
tf.estimator.RegressionHead(
label_dimension=1, weight_column=None,
loss_reduction=tf.losses.Reduction.SUM_OVER_BATCH_SIZE, loss_fn=None,
inverse_link_fn=None, name=None
)
參數
-
weight_column
由tf.feature_column.numeric_column
創建的字符串或NumericColumn
定義表示權重的特征列。它用於在訓練期間減輕重量或增加示例。它將乘以示例的損失。 -
label_dimension
每個示例的回歸標簽數。這是標簽Tensor
的最後一個維度的大小(通常,它的形狀為[batch_size, label_dimension]
)。 -
loss_reduction
tf.losses.Reduction
之一,除了NONE
。決定如何減少批次和標簽維度的訓練損失。默認為SUM_OVER_BATCH_SIZE
,即損失的加權總和除以batch_size * label_dimension
。 -
loss_fn
可選的損失函數。默認為mean_squared_error
。 -
inverse_link_fn
可選的反向鏈接函數,也稱為'mean function'。默認為身份。 -
name
頭的名字。如果提供,摘要和指標鍵將以"/" + name
為後綴。創建操作時也用作name_scope
。
屬性
-
logits_dimension
有關詳細信息,請參閱base_head.Head
。 -
loss_reduction
有關詳細信息,請參閱base_head.Head
。 -
name
有關詳細信息,請參閱base_head.Head
。
損失是所有輸入維度的加權和。也就是說,如果輸入標簽的形狀為 [batch_size, label_dimension]
,則損失是 batch_size
和 label_dimension
的加權和。
頭部期望 logits
形狀為 [D0, D1, ... DN, label_dimension]
。在許多應用程序中,形狀是 [batch_size, label_dimension]
。
labels
形狀必須匹配 logits
,即 [D0, D1, ... DN, label_dimension]
。如果 label_dimension=1
,形狀 [D0, D1, ... DN]
也受支持。
如果指定了 weight_column
,則權重的形狀必須為 [D0, D1, ... DN]
, [D0, D1, ... DN, 1]
或 [D0, D1, ... DN, label_dimension]
。
支持自定義 loss_fn
。 loss_fn
將 (labels, logits)
或 (labels, logits, features, loss_reduction)
作為參數並返回形狀為 [D0, D1, ... DN, label_dimension]
的未減少損失。
也支持自定義inverse_link_fn
,也稱為'mean function'。inverse_link_fn
僅用於PREDICT
模式。它需要logits
作為參數並返回預測值。這個函數是定義的鏈接函數的逆https://en.wikipedia.org/wiki/Generalized_linear_model#Link_function即,對於泊鬆回歸,設置inverse_link_fn=tf.exp
.
用法:
head = tf.estimator.RegressionHead()
logits = np.array(((45,), (41,),), dtype=np.float32)
labels = np.array(((43,), (44,),), dtype=np.int32)
features = {'x':np.array(((42,),), dtype=np.float32)}
# expected_loss = weighted_loss / batch_size
# = (43-45)^2 + (44-41)^2 / 2 = 6.50
loss = head.loss(labels, logits, features=features)
print('{:.2f}'.format(loss.numpy()))
6.50
eval_metrics = head.metrics()
updated_metrics = head.update_metrics(
eval_metrics, features, logits, labels)
for k in sorted(updated_metrics):
print('{}:{:.2f}'.format(k, updated_metrics[k].result().numpy()))
average_loss:6.50
label/mean:43.50
prediction/mean:43.00
preds = head.predictions(logits)
print(preds['predictions'])
tf.Tensor(
[[45.]
[41.]], shape=(2, 1), dtype=float32)
與罐裝估算器一起使用:
my_head = tf.estimator.RegressionHead()
my_estimator = tf.estimator.DNNEstimator(
head=my_head,
hidden_units=...,
feature_columns=...)
它也可以與自定義 model_fn
一起使用。例子:
def _my_model_fn(features, labels, mode):
my_head = tf.estimator.RegressionHead()
logits = tf.keras.Model(...)(features)
return my_head.create_estimator_spec(
features=features,
mode=mode,
labels=labels,
optimizer=tf.keras.optimizers.Adagrad(lr=0.1),
logits=logits)
my_estimator = tf.estimator.Estimator(model_fn=_my_model_fn)
相關用法
- Python tf.estimator.RunConfig用法及代碼示例
- Python tf.estimator.TrainSpec用法及代碼示例
- Python tf.estimator.LogisticRegressionHead用法及代碼示例
- Python tf.estimator.MultiHead用法及代碼示例
- Python tf.estimator.PoissonRegressionHead用法及代碼示例
- Python tf.estimator.WarmStartSettings用法及代碼示例
- Python tf.estimator.experimental.stop_if_lower_hook用法及代碼示例
- Python tf.estimator.MultiLabelHead用法及代碼示例
- Python tf.estimator.experimental.stop_if_no_increase_hook用法及代碼示例
- Python tf.estimator.BaselineEstimator用法及代碼示例
- Python tf.estimator.DNNLinearCombinedEstimator用法及代碼示例
- Python tf.estimator.Estimator用法及代碼示例
- Python tf.estimator.experimental.LinearSDCA用法及代碼示例
- Python tf.estimator.experimental.RNNClassifier用法及代碼示例
- Python tf.estimator.experimental.make_early_stopping_hook用法及代碼示例
- Python tf.estimator.LinearRegressor用法及代碼示例
- Python tf.estimator.LinearEstimator用法及代碼示例
- Python tf.estimator.DNNClassifier用法及代碼示例
- Python tf.estimator.BaselineClassifier用法及代碼示例
- Python tf.estimator.experimental.stop_if_higher_hook用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.estimator.RegressionHead。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。