当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.compat.v1.estimator.DNNLinearCombinedEstimator用法及代码示例


用于 TensorFlow 线性和 DNN 的估计器加入了带有自定义头部的模型。

警告:不建议将估算器用于新代码。估算器运行tf.compat.v1.Session-style 代码更难正确编写,并且可能出现意外行为,尤其是与 TF 2 代码结合使用时。估算器确实属于我们的兼容性保证,但不会收到除安全漏洞以外的任何修复。见迁移指南详情。

继承自:Estimator

用法

tf.compat.v1.estimator.DNNLinearCombinedEstimator(
    head, model_dir=None, linear_feature_columns=None,
    linear_optimizer='Ftrl', dnn_feature_columns=None,
    dnn_optimizer='Adagrad', dnn_hidden_units=None,
    dnn_activation_fn=tf.nn.relu, dnn_dropout=None, input_layer_partitioner=None,
    config=None, batch_norm=False, linear_sparse_combiner='sum'
)

参数

  • model_fn 模型函数。遵循签名:
    • features -- 这是从 input_fn 返回的第一项,传递给 train , evaluatepredict 。这应该是一个相同的 tf.Tensordict
    • labels -- 这是从传递给 train , evaluatepredictinput_fn 返回的第二项。这应该是相同的单个tf.Tensordict(对于multi-head 型号)。如果 mode 是 tf.estimator.ModeKeys.PREDICTlabels=None 将被传递。如果 model_fn 的签名不接受 mode ,则 model_fn 必须仍然能够处理 labels=None
    • mode -- 可选。指定这是训练、评估还是预测。见tf.estimator.ModeKeysparams -- 可选的 dict 超参数。将接收 params 参数中传递给 Estimator 的内容。这允许通过超参数调整来配置 Estimator。
    • config -- 可选的 estimator.RunConfig 对象。将接收作为其config 参数或默认值传递给 Estimator 的内容。允许根据 num_ps_replicasmodel_dir 等配置在 model_fn 中进行设置。
    • 返回 -- tf.estimator.EstimatorSpec
  • model_dir 保存模型参数、图形等的目录。这也可用于将检查点从目录加载到估计器中,以继续训练先前保存的模型。如果PathLike 对象,路径将被解析。如果 None ,如果设置,将使用 config 中的 model_dir。如果两者都设置,则它们必须相同。如果两者都是 None ,将使用临时目录。
  • config estimator.RunConfig 配置对象。
  • params dict 的超参数将被传递到 model_fn 。键是参数的名称,值是基本的 Python 类型。
  • warm_start_from 检查点或 SavedModel 的可选字符串文件路径以进行热启动,或 tf.estimator.WarmStartSettings 对象以完全配置热启动。如果没有,只有 TRAINABLE 变量是热启动的。如果提供了字符串文件路径而不是 tf.estimator.WarmStartSettings ,则所有变量都是热启动的,并且假定词汇表和 tf.Tensor 名称不变。

抛出

  • ValueError model_fn 的参数与 params 不匹配。
  • ValueError 如果这是通过子类调用的,并且该类覆盖了 Estimator 的成员。

属性

  • config
  • model_dir
  • model_fn 返回绑定到 self.paramsmodel_fn
  • params

注意:此估计器也称为wide-n-deep。

例子:

numeric_feature = numeric_column(...)
categorical_column_a = categorical_column_with_hash_bucket(...)
categorical_column_b = categorical_column_with_hash_bucket(...)

categorical_feature_a_x_categorical_feature_b = crossed_column(...)
categorical_feature_a_emb = embedding_column(
    categorical_column=categorical_feature_a, ...)
categorical_feature_b_emb = embedding_column(
    categorical_column=categorical_feature_b, ...)

estimator = tf.estimator.DNNLinearCombinedEstimator(
    head=tf.estimator.MultiLabelHead(n_classes=3),
    # wide settings
    linear_feature_columns=[categorical_feature_a_x_categorical_feature_b],
    linear_optimizer=tf.keras.optimizers.Ftrl(...),
    # deep settings
    dnn_feature_columns=[
        categorical_feature_a_emb, categorical_feature_b_emb,
        numeric_feature],
    dnn_hidden_units=[1000, 500, 100],
    dnn_optimizer=tf.keras.optimizers.Adagrad(...))

# To apply L1 and L2 regularization, you can set dnn_optimizer to:
tf.compat.v1.train.ProximalAdagradOptimizer(
    learning_rate=0.1,
    l1_regularization_strength=0.001,
    l2_regularization_strength=0.001)
# To apply learning rate decay, you can set dnn_optimizer to a callable:
lambda:tf.keras.optimizers.Adam(
    learning_rate=tf.compat.v1.train.exponential_decay(
        learning_rate=0.1,
        global_step=tf.compat.v1.train.get_global_step(),
        decay_steps=10000,
        decay_rate=0.96)
# It is the same for linear_optimizer.

# Input builders
def input_fn_train:
  # Returns tf.data.Dataset of (x, y) tuple where y represents label's class
  # index.
  pass
def input_fn_eval:
  # Returns tf.data.Dataset of (x, y) tuple where y represents label's class
  # index.
  pass
def input_fn_predict:
  # Returns tf.data.Dataset of (x, None) tuple.
  pass
estimator.train(input_fn=input_fn_train, steps=100)
metrics = estimator.evaluate(input_fn=input_fn_eval, steps=10)
predictions = estimator.predict(input_fn=input_fn_predict)

trainevaluate 的输入应具有以下特征,否则会出现 KeyError

  • 对于每个columndnn_feature_columns+linear_feature_columns
    • 如果 columnCategoricalColumn ,则具有 key=column.name 的特征,其 valueSparseTensor
    • 如果 columnWeightedCategoricalColumn ,则有两个特征:第一个具有 key id 列名,第二个具有 key 权重列名。两个函数的 value 必须是 SparseTensor
    • 如果 columnDenseColumn ,则具有 key=column.name 的特征,其 valueTensor

损失是使用均方误差计算的。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.compat.v1.estimator.DNNLinearCombinedEstimator。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。