in-process TensorFlow 服務器,用於分布式訓練。
用法
tf.distribute.Server(
server_or_cluster_def, job_name=None, task_index=None, protocol=None,
config=None, start=True
)
參數
-
server_or_cluster_def
tf.train.ServerDef
或tf.train.ClusterDef
協議緩衝區或tf.train.ClusterSpec
對象,說明要創建的服務器和/或它所屬的集群。 -
job_name
(可選。)指定服務器所屬的作業的名稱。如果指定,默認為server_or_cluster_def
中的值。 -
task_index
(可選。)指定服務器在其作業中的任務索引。如果指定,默認為server_or_cluster_def
中的值。否則,如果服務器的作業隻有一項任務,則默認為 0。 -
protocol
(可選。)指定服務器要使用的協議。可接受的值包括"grpc", "grpc+verbs"
。如果指定,默認為server_or_cluster_def
中的值。否則默認為"grpc"
。 -
config
(選項。)tf.compat.v1.ConfigProto
,指定在此服務器上運行的所有會話的默認配置選項。 -
start
(可選。)布爾值,表示創建後是否啟動服務器。默認為True
。
拋出
-
tf.errors.OpError
如果在創建 TensorFlow 服務器時發生錯誤,則為其子類之一。
屬性
-
server_def
返回此服務器的tf.train.ServerDef
。 -
target
返回一個目標tf.compat.v1.Session連接到此服務器。要創建連接到此服務器的
tf.compat.v1.Session
,請使用以下代碼段:server = tf.distribute.Server(...) with tf.compat.v1.Session(server.target): # ...
一個tf.distribute.Server
實例封裝了一組設備和一個可以參與分布式訓練的tf.compat.v1.Session
目標。服務器屬於一個集群(由 tf.train.ClusterSpec
指定),並且對應於命名作業中的特定任務。該服務器可以與同一集群中的任何其他服務器進行通信。
相關用法
- Python tf.distribute.Strategy.scope用法及代碼示例
- Python tf.distribute.Strategy.experimental_distribute_values_from_function用法及代碼示例
- Python tf.distribute.StrategyExtended.reduce_to用法及代碼示例
- Python tf.distribute.StrategyExtended.variable_created_in_scope用法及代碼示例
- Python tf.distribute.Strategy用法及代碼示例
- Python tf.distribute.StrategyExtended.batch_reduce_to用法及代碼示例
- Python tf.distribute.Strategy.reduce用法及代碼示例
- Python tf.distribute.StrategyExtended.update用法及代碼示例
- Python tf.distribute.Strategy.experimental_distribute_dataset用法及代碼示例
- Python tf.distribute.StrategyExtended.colocate_vars_with用法及代碼示例
- Python tf.distribute.Strategy.run用法及代碼示例
- Python tf.distribute.Strategy.gather用法及代碼示例
- Python tf.distribute.OneDeviceStrategy.experimental_distribute_values_from_function用法及代碼示例
- Python tf.distribute.TPUStrategy用法及代碼示例
- Python tf.distribute.experimental_set_strategy用法及代碼示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.gather用法及代碼示例
- Python tf.distribute.cluster_resolver.TFConfigClusterResolver用法及代碼示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy用法及代碼示例
- Python tf.distribute.TPUStrategy.experimental_assign_to_logical_device用法及代碼示例
- Python tf.distribute.NcclAllReduce用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.distribute.Server。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。