当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.compat.v1.estimator.DNNClassifier用法及代码示例


TensorFlow DNN 模型的分类器。

警告:不建议将估算器用于新代码。估算器运行tf.compat.v1.Session-style 代码更难正确编写,并且可能出现意外行为,尤其是与 TF 2 代码结合使用时。估算器确实属于我们的兼容性保证,但不会收到除安全漏洞以外的任何修复。见迁移指南详情。

继承自:Estimator

用法

tf.compat.v1.estimator.DNNClassifier(
    hidden_units, feature_columns, model_dir=None, n_classes=2, weight_column=None,
    label_vocabulary=None, optimizer='Adagrad', activation_fn=tf.nn.relu,
    dropout=None, input_layer_partitioner=None, config=None, warm_start_from=None,
    loss_reduction=tf.compat.v1.losses.Reduction.SUM, batch_norm=False
)

参数

  • model_fn 模型函数。遵循签名:
    • features -- 这是从 input_fn 返回的第一项,传递给 train , evaluatepredict 。这应该是一个相同的 tf.Tensordict
    • labels -- 这是从传递给 train , evaluatepredictinput_fn 返回的第二项。这应该是相同的单个tf.Tensordict(对于multi-head 型号)。如果 mode 是 tf.estimator.ModeKeys.PREDICTlabels=None 将被传递。如果 model_fn 的签名不接受 mode ,则 model_fn 必须仍然能够处理 labels=None
    • mode -- 可选。指定这是训练、评估还是预测。见tf.estimator.ModeKeysparams -- 可选的 dict 超参数。将接收 params 参数中传递给 Estimator 的内容。这允许通过超参数调整来配置 Estimator。
    • config -- 可选的 estimator.RunConfig 对象。将接收作为其config 参数或默认值传递给 Estimator 的内容。允许根据 num_ps_replicasmodel_dir 等配置在 model_fn 中进行设置。
    • 返回 -- tf.estimator.EstimatorSpec
  • model_dir 保存模型参数、图形等的目录。这也可用于将检查点从目录加载到估计器中,以继续训练先前保存的模型。如果PathLike 对象,路径将被解析。如果 None ,如果设置,将使用 config 中的 model_dir。如果两者都设置,则它们必须相同。如果两者都是 None ,将使用临时目录。
  • config estimator.RunConfig 配置对象。
  • params dict 的超参数将被传递到 model_fn 。键是参数的名称,值是基本的 Python 类型。
  • warm_start_from 检查点或 SavedModel 的可选字符串文件路径以进行热启动,或 tf.estimator.WarmStartSettings 对象以完全配置热启动。如果没有,只有 TRAINABLE 变量是热启动的。如果提供了字符串文件路径而不是 tf.estimator.WarmStartSettings ,则所有变量都是热启动的,并且假定词汇表和 tf.Tensor 名称不变。

抛出

  • ValueError model_fn 的参数与 params 不匹配。
  • ValueError 如果这是通过子类调用的,并且该类覆盖了 Estimator 的成员。

属性

  • config
  • model_dir
  • model_fn 返回绑定到 self.paramsmodel_fn
  • params

例子:

categorical_feature_a = categorical_column_with_hash_bucket(...)
categorical_feature_b = categorical_column_with_hash_bucket(...)

categorical_feature_a_emb = embedding_column(
    categorical_column=categorical_feature_a, ...)
categorical_feature_b_emb = embedding_column(
    categorical_column=categorical_feature_b, ...)

estimator = tf.estimator.DNNClassifier(
    feature_columns=[categorical_feature_a_emb, categorical_feature_b_emb],
    hidden_units=[1024, 512, 256])

# Or estimator using the ProximalAdagradOptimizer optimizer with
# regularization.
estimator = tf.estimator.DNNClassifier(
    feature_columns=[categorical_feature_a_emb, categorical_feature_b_emb],
    hidden_units=[1024, 512, 256],
    optimizer=tf.compat.v1.train.ProximalAdagradOptimizer(
      learning_rate=0.1,
      l1_regularization_strength=0.001
    ))

# Or estimator using an optimizer with a learning rate decay.
estimator = tf.estimator.DNNClassifier(
    feature_columns=[categorical_feature_a_emb, categorical_feature_b_emb],
    hidden_units=[1024, 512, 256],
    optimizer=lambda:tf.keras.optimizers.Adam(
        learning_rate=tf.compat.v1.train.exponential_decay(
            learning_rate=0.1,
            global_step=tf.compat.v1.train.get_global_step(),
            decay_steps=10000,
            decay_rate=0.96))

# Or estimator with warm-starting from a previous checkpoint.
estimator = tf.estimator.DNNClassifier(
    feature_columns=[categorical_feature_a_emb, categorical_feature_b_emb],
    hidden_units=[1024, 512, 256],
    warm_start_from="/path/to/checkpoint/dir")

# Input builders
def input_fn_train:
  # Returns tf.data.Dataset of (x, y) tuple where y represents label's class
  # index.
  pass
def input_fn_eval:
  # Returns tf.data.Dataset of (x, y) tuple where y represents label's class
  # index.
  pass
def input_fn_predict:
  # Returns tf.data.Dataset of (x, None) tuple.
  pass
estimator.train(input_fn=input_fn_train)
metrics = estimator.evaluate(input_fn=input_fn_eval)
predictions = estimator.predict(input_fn=input_fn_predict)

trainevaluate 的输入应具有以下特征,否则会出现 KeyError

  • 如果 weight_column 不是 None ,则具有 key=weight_column 的特征,其值为 Tensor
  • 对于每个columnfeature_columns
    • 如果 columnCategoricalColumn ,则具有 key=column.name 的特征,其 valueSparseTensor
    • 如果 columnWeightedCategoricalColumn ,则有两个特征:第一个具有 key id 列名,第二个具有 key 权重列名。两个函数的 value 必须是 SparseTensor
    • 如果 columnDenseColumn ,则具有 key=column.name 的特征,其 valueTensor

损失是通过使用 softmax 交叉熵来计算的。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.compat.v1.estimator.DNNClassifier。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。