当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.distribute.Server用法及代码示例


in-process TensorFlow 服务器,用于分布式训练。

用法

tf.distribute.Server(
    server_or_cluster_def, job_name=None, task_index=None, protocol=None,
    config=None, start=True
)

参数

  • server_or_cluster_def tf.train.ServerDeftf.train.ClusterDef 协议缓冲区或 tf.train.ClusterSpec 对象,说明要创建的服务器和/或它所属的集群。
  • job_name (可选。)指定服务器所属的作业的名称。如果指定,默认为 server_or_cluster_def 中的值。
  • task_index (可选。)指定服务器在其作业中的任务索引。如果指定,默认为 server_or_cluster_def 中的值。否则,如果服务器的作业只有一项任务,则默认为 0。
  • protocol (可选。)指定服务器要使用的协议。可接受的值包括 "grpc", "grpc+verbs" 。如果指定,默认为 server_or_cluster_def 中的值。否则默认为 "grpc"
  • config (选项。)tf.compat.v1.ConfigProto,指定在此服务器上运行的所有会话的默认配置选项。
  • start (可选。)布尔值,表示创建后是否启动服务器。默认为 True

抛出

  • tf.errors.OpError 如果在创建 TensorFlow 服务器时发生错误,则为其子类之一。

属性

  • server_def 返回此服务器的 tf.train.ServerDef
  • target 返回一个目标tf.compat.v1.Session连接到此服务器。

    要创建连接到此服务器的 tf.compat.v1.Session,请使用以下代码段:

    server = tf.distribute.Server(...)
    with tf.compat.v1.Session(server.target):
      # ...

一个tf.distribute.Server 实例封装了一组设备和一个可以参与分布式训练的tf.compat.v1.Session 目标。服务器属于一个集群(由 tf.train.ClusterSpec 指定),并且对应于命名作业中的特定任务。该服务器可以与同一集群中的任何其他服务器进行通信。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.distribute.Server。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。