用法
fetch(
val
)
参数
-
val
从中获取结果的值。如果这是tf.distribute.experimental.coordinator.RemoteValue
的结构,则将在个人tf.distribute.experimental.coordinator.RemoteValue
上调用fetch()
以获得结果。
返回
-
如果
val
是一个tf.distribute.experimental.coordinator.RemoteValue
或tf.distribute.experimental.coordinator.RemoteValue
的结构,则如果获取的tf.distribute.experimental.coordinator.RemoteValue
值可用,则立即返回它们,或者阻塞调用直到它们可用,然后返回获取的tf.distribute.experimental.coordinator.RemoteValue
值相同的结构。如果val
为其他类型,返回as-is。
阻止调用以从远程值中获取结果。
这是RemoteValue
结构的tf.distribute.experimental.coordinator.RemoteValue.fetch
的包装器;它返回RemoteValue
s的执行结果。如果尚未准备好,请在阻止调用者的同时等待他们。
例子:
strategy = ...
coordinator = tf.distribute.experimental.coordinator.ClusterCoordinator(
strategy)
def dataset_fn():
return tf.data.Dataset.from_tensor_slices([1, 1, 1])
with strategy.scope():
v = tf.Variable(initial_value=0)
@tf.function
def worker_fn(iterator):
def replica_fn(x):
v.assign_add(x)
return v.read_value()
return strategy.run(replica_fn, args=(next(iterator),))
distributed_dataset = coordinator.create_per_worker_dataset(dataset_fn)
distributed_iterator = iter(distributed_dataset)
result = coordinator.schedule(worker_fn, args=(distributed_iterator,))
assert coordinator.fetch(result) == 1
相关用法
- Python tf.distribute.experimental.coordinator.ClusterCoordinator.create_per_worker_dataset用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.gather用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy用法及代码示例
- Python tf.distribute.experimental.rpc.Server.create用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.distribute.experimental.partitioners.Partitioner.__call__用法及代码示例
- Python tf.distribute.experimental.TPUStrategy.experimental_distribute_values_from_function用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.run用法及代码示例
- Python tf.distribute.experimental.partitioners.MaxSizePartitioner.__call__用法及代码示例
- Python tf.distribute.experimental.partitioners.FixedShardsPartitioner用法及代码示例
- Python tf.distribute.experimental.TPUStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.distribute.experimental.ParameterServerStrategy.gather用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.scope用法及代码示例
- Python tf.distribute.experimental.TPUStrategy用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.reduce用法及代码示例
- Python tf.distribute.experimental.partitioners.MinSizePartitioner用法及代码示例
- Python tf.distribute.experimental.ParameterServerStrategy.experimental_distribute_values_from_function用法及代码示例
- Python tf.distribute.experimental.CentralStorageStrategy.experimental_distribute_values_from_function用法及代码示例
- Python tf.distribute.experimental.CentralStorageStrategy用法及代码示例
- Python tf.distribute.experimental.ParameterServerStrategy.experimental_distribute_dataset用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.distribute.experimental.coordinator.ClusterCoordinator.fetch。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。