當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.estimator.DNNEstimator用法及代碼示例


具有用戶指定頭部的 TensorFlow DNN 模型的估計器。

警告:不建議將估算器用於新代碼。估算器運行tf.compat.v1.Session-style 代碼更難正確編寫,並且可能出現意外行為,尤其是與 TF 2 代碼結合使用時。估算器確實屬於我們的兼容性保證,但不會收到除安全漏洞以外的任何修複。見遷移指南詳情。

繼承自:EstimatorEstimator

用法

tf.estimator.DNNEstimator(
    head, hidden_units, feature_columns, model_dir=None,
    optimizer='Adagrad', activation_fn=tf.nn.relu, dropout=None,
    config=None, warm_start_from=None, batch_norm=False
)

參數

  • head 使用 tf.contrib.estimator.multi_label_head 等方法構造的 _Head 實例。
  • hidden_units 每層可迭代的隱藏單元數。所有層都是完全連接的。前任。 [64, 32] 表示第一層有 64 個節點,第二層有 32 個。
  • feature_columns 一個包含模型使用的所有特征列的迭代。集合中的所有項目都應該是派生自 _FeatureColumn 的類的實例。
  • model_dir 保存模型參數、圖形等的目錄。這也可用於將檢查點從目錄加載到估計器中,以繼續訓練先前保存的模型。
  • optimizer tf.keras.optimizers.* 的實例用於訓練模型。也可以是字符串('Adagrad'、'Adam'、'Ftrl'、'RMSProp'、SGD'之一)或可調用的。默認為 Adagrad 優化器。
  • activation_fn 應用於每一層的激活函數。如果 None ,將使用 tf.nn.relu
  • dropout 當不是 None 時,我們將丟棄給定坐標的概率。
  • config RunConfig 對象來配置運行時設置。
  • warm_start_from 檢查點的字符串文件路徑以進行熱啟動,或 WarmStartSettings 對象以完全配置熱啟動。如果提供了字符串文件路徑而不是 WarmStartSettings ,則所有權重都是熱啟動的,並且假定詞匯表和張量名稱未更改。
  • batch_norm 是否在每個隱藏層之後使用批量歸一化。

屬性

  • config
  • export_savedmodel
  • model_dir
  • model_fn 返回綁定到 self.paramsmodel_fn
  • params

例子:

sparse_feature_a = sparse_column_with_hash_bucket(...)
sparse_feature_b = sparse_column_with_hash_bucket(...)

sparse_feature_a_emb = embedding_column(sparse_id_column=sparse_feature_a,
                                        ...)
sparse_feature_b_emb = embedding_column(sparse_id_column=sparse_feature_b,
                                        ...)

estimator = tf.estimator.DNNEstimator(
    head=tf.estimator.MultiLabelHead(n_classes=3),
    feature_columns=[sparse_feature_a_emb, sparse_feature_b_emb],
    hidden_units=[1024, 512, 256])

# Or estimator using the ProximalAdagradOptimizer optimizer with
# regularization.
estimator = tf.estimator.DNNEstimator(
    head=tf.estimator.MultiLabelHead(n_classes=3),
    feature_columns=[sparse_feature_a_emb, sparse_feature_b_emb],
    hidden_units=[1024, 512, 256],
    optimizer=tf.compat.v1.train.ProximalAdagradOptimizer(
      learning_rate=0.1,
      l1_regularization_strength=0.001
    ))

# Or estimator using an optimizer with a learning rate decay.
estimator = tf.estimator.DNNEstimator(
    head=tf.estimator.MultiLabelHead(n_classes=3),
    feature_columns=[sparse_feature_a_emb, sparse_feature_b_emb],
    hidden_units=[1024, 512, 256],
    optimizer=lambda:tf.keras.optimizers.Adam(
        learning_rate=tf.compat.v1.train.exponential_decay(
            learning_rate=0.1,
            global_step=tf.compat.v1.train.get_global_step(),
            decay_steps=10000,
            decay_rate=0.96))

# Or estimator with warm-starting from a previous checkpoint.
estimator = tf.estimator.DNNEstimator(
    head=tf.estimator.MultiLabelHead(n_classes=3),
    feature_columns=[sparse_feature_a_emb, sparse_feature_b_emb],
    hidden_units=[1024, 512, 256],
    warm_start_from="/path/to/checkpoint/dir")

# Input builders
def input_fn_train:
  # Returns tf.data.Dataset of (x, y) tuple where y represents label's class
  # index.
  pass
def input_fn_eval:
  # Returns tf.data.Dataset of (x, y) tuple where y represents label's class
  # index.
  pass
def input_fn_predict:
  # Returns tf.data.Dataset of (x, None) tuple.
  pass
estimator.train(input_fn=input_fn_train)
metrics = estimator.evaluate(input_fn=input_fn_eval)
predictions = estimator.predict(input_fn=input_fn_predict)

trainevaluate 的輸入應具有以下特征,否則會出現 KeyError

  • 如果 weight_column 不是 None ,則具有 key=weight_column 的特征,其值為 Tensor
  • 對於每個columnfeature_columns
    • 如果 columnCategoricalColumn ,則具有 key=column.name 的特征,其 valueSparseTensor
    • 如果 columnWeightedCategoricalColumn ,則有兩個特征:第一個具有 key id 列名,第二個具有 key 權重列名。兩個函數的 value 必須是 SparseTensor
    • 如果 columnDenseColumn ,則具有 key=column.name 的特征,其 valueTensor

損失和預測輸出由指定的頭部確定。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.estimator.DNNEstimator。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。