用法
make_input_fn_iterator(
input_fn, replication_mode=tf.distribute.InputReplicationMode.PER_WORKER
)
参数
-
input_fn
一个接受tf.distribute.InputContext
对象并返回tf.data.Dataset
的函数。 -
replication_mode
tf.distribute.InputReplicationMode
的枚举值。当前仅支持PER_WORKER
,这意味着每个worker 将调用一次input_fn
。副本将从其 worker 上的本地tf.data.Dataset
出列。
返回
-
一个迭代器对象,首先应该是
.initialize()
-ed。然后可以将其传递给strategy.experimental_run()
,或者您可以iterator.get_next()
获取下一个值以传递给strategy.extended.call_for_each_replica()
。
返回从输入函数创建的副本之间拆分的迭代器。
已弃用:此方法在 TF 2.x 中不可用。
input_fn
应该采用 tf.distribute.InputContext
对象,可以访问有关批处理和输入分片的信息:
def input_fn(input_context):
batch_size = input_context.get_per_replica_batch_size(global_batch_size)
d = tf.data.Dataset.from_tensors([[1.]]).repeat().batch(batch_size)
return d.shard(input_context.num_input_pipelines,
input_context.input_pipeline_id)
with strategy.scope():
iterator = strategy.make_input_fn_iterator(input_fn)
replica_results = strategy.experimental_run(replica_fn, iterator)
input_fn
返回的 tf.data.Dataset
应该具有 per-replica 批量大小,可以使用 input_context.get_per_replica_batch_size
计算。
相关用法
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.run用法及代码示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.reduce用法及代码示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.experimental_make_numpy_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.scope用法及代码示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy用法及代码示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.experimental_make_numpy_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.reduce用法及代码示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.experimental_make_numpy_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.scope用法及代码示例
- Python tf.compat.v1.distribute.experimental.ParameterServerStrategy.experimental_make_numpy_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy用法及代码示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.reduce用法及代码示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy用法及代码示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.run用法及代码示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.ParameterServerStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.scope用法及代码示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.run用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.compat.v1.distribute.experimental.CentralStorageStrategy.make_input_fn_iterator。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。