當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.distribute.cluster_resolver.TFConfigClusterResolver用法及代碼示例


讀取TF_CONFIG EnvVar 的 ClusterResolver 的實現。

繼承自:ClusterResolver

用法

tf.distribute.cluster_resolver.TFConfigClusterResolver(
    task_type=None, task_id=None, rpc_layer=None, environment=None
)

參數

  • task_type (字符串,可選)覆蓋 TF_CONFIG 環境變量中指定的任務類型。
  • task_id (整數,可選)覆蓋 TF_CONFIG 環境變量中指定的任務索引。
  • rpc_layer (字符串,可選)覆蓋 TensorFlow 使用的 rpc 層。
  • environment (字符串,可選)覆蓋 TensorFlow 運行的環境。

屬性

  • environment 返回 TensorFlow 運行的當前環境。

    有兩個可能的返回值,"google"(當 TensorFlow 在 Google-internal 環境中運行時)或空字符串(當 TensorFlow 在其他地方運行時)。

    如果您正在實現一個在 Google 環境和開源世界中都可以工作的 ClusterResolver(例如,TPU ClusterResolver 或類似的),您將必須根據環境返回適當的字符串,您必須檢測到該字符串。

    否則,如果您正在實現僅在開源 TensorFlow 中工作的 ClusterResolver,則無需實現此屬性。

  • rpc_layer
  • task_id 返回此任務 IDClusterResolver表示。

    在 TensorFlow 分布式環境中,每個作業可能有一個適用的任務 id,它是實例在其任務類型中的索引。當用戶需要根據任務索引運行特定代碼時,這很有用。例如,

    cluster_spec = tf.train.ClusterSpec({
        "ps":["localhost:2222", "localhost:2223"],
        "worker":["localhost:2224", "localhost:2225", "localhost:2226"]
    })
    
    # SimpleClusterResolver is used here for illustration; other cluster
    # resolvers may be used for other source of task type/id.
    simple_resolver = SimpleClusterResolver(cluster_spec, task_type="worker",
                                            task_id=0)
    
    ...
    
    if cluster_resolver.task_type == 'worker' and cluster_resolver.task_id == 0:
      # Perform something that's only applicable on 'worker' type, id 0. This
      # block will run on this particular instance since we've specified this
      # task to be a 'worker', id 0 in above cluster resolver.
    else:
      # Perform something that's only applicable on other ids. This block will
      # not run on this particular instance.

    如果此類信息不可用或不適用於當前分布式環境(例如使用 tf.distribute.cluster_resolver.TPUClusterResolver 進行訓練),則返回 None

    有關詳細信息,請參閱 tf.distribute.cluster_resolver.ClusterResolver 的類文檔字符串。

  • task_type 返回此任務類型ClusterResolver表示。

    在 TensorFlow 分布式環境中,每個作業都可能有一個適用的任務類型。 TensorFlow 中的有效任務類型包括 'chief':被指定承擔更多責任的工作人員、'worker':用於訓練/評估的常規工作人員、'ps':參數服務器或 'evaluator':評估檢查點的評估程序用於指標。

    有關最常用的'chief' 和'worker' 任務類型的更多信息,請參閱Multi-worker 配置。

    當用戶需要根據任務類型運行特定代碼時,訪問此類信息非常有用。例如,

    cluster_spec = tf.train.ClusterSpec({
        "ps":["localhost:2222", "localhost:2223"],
        "worker":["localhost:2224", "localhost:2225", "localhost:2226"]
    })
    
    # SimpleClusterResolver is used here for illustration; other cluster
    # resolvers may be used for other source of task type/id.
    simple_resolver = SimpleClusterResolver(cluster_spec, task_type="worker",
                                            task_id=1)
    
    ...
    
    if cluster_resolver.task_type == 'worker':
      # Perform something that's only applicable on workers. This block
      # will run on this particular instance since we've specified this task to
      # be a worker in above cluster resolver.
    elif cluster_resolver.task_type == 'ps':
      # Perform something that's only applicable on parameter servers. This
      # block will not run on this particular instance.

    如果此類信息不可用或不適用於當前分布式環境(例如使用 tf.distribute.experimental.TPUStrategy 進行訓練),則返回 None

    有關詳細信息,請參閱 tf.distribute.cluster_resolver.ClusterResolver 的課程文檔。

這是使用TF_CONFIG 設置集群信息時集群解析器的實現。返回的集群規範將從 TF_CONFIG 環境變量初始化。

設置 TF_CONFIG 的示例是:

os.environ['TF_CONFIG'] = json.dumps({
    'cluster':{
        'worker':["localhost:12345", "localhost:23456"]
    },
    'task':{'type':'worker', 'index':0}
  })

但是,有時容器編排框架會為您設置TF_CONFIG。在這種情況下,您可以隻創建一個實例而不傳遞任何參數。你可以在這裏找到一個例子讓 Kuburnetes 為你設置TF_CONFIG:https://github.com/tensorflow/ecosystem/tree/master/kubernetes。然後您可以將其與 tf.distribute.Strategy 一起使用:

# `TFConfigClusterResolver` is already the default one in the following
  # strategy.
  strategy = tf.distribute.experimental.MultiWorkerMirroredStrategy(
      cluster_resolver=TFConfigClusterResolver())

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.distribute.cluster_resolver.TFConfigClusterResolver。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。