用法
make_input_fn_iterator(
input_fn, replication_mode=tf.distribute.InputReplicationMode.PER_WORKER
)
參數
-
input_fn
一個接受tf.distribute.InputContext
對象並返回tf.data.Dataset
的函數。 -
replication_mode
tf.distribute.InputReplicationMode
的枚舉值。當前僅支持PER_WORKER
,這意味著每個worker 將調用一次input_fn
。副本將從其 worker 上的本地tf.data.Dataset
出列。
返回
-
一個迭代器對象,首先應該是
.initialize()
-ed。然後可以將其傳遞給strategy.experimental_run()
,或者您可以iterator.get_next()
獲取下一個值以傳遞給strategy.extended.call_for_each_replica()
。
返回從輸入函數創建的副本之間拆分的迭代器。
已棄用:此方法在 TF 2.x 中不可用。
input_fn
應該采用 tf.distribute.InputContext
對象,可以訪問有關批處理和輸入分片的信息:
def input_fn(input_context):
batch_size = input_context.get_per_replica_batch_size(global_batch_size)
d = tf.data.Dataset.from_tensors([[1.]]).repeat().batch(batch_size)
return d.shard(input_context.num_input_pipelines,
input_context.input_pipeline_id)
with strategy.scope():
iterator = strategy.make_input_fn_iterator(input_fn)
replica_results = strategy.experimental_run(replica_fn, iterator)
input_fn
返回的 tf.data.Dataset
應該具有 per-replica 批量大小,可以使用 input_context.get_per_replica_batch_size
計算。
相關用法
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.run用法及代碼示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.experimental_distribute_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.reduce用法及代碼示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.experimental_make_numpy_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy.scope用法及代碼示例
- Python tf.compat.v1.distribute.experimental.CentralStorageStrategy用法及代碼示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.experimental_distribute_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.experimental_make_numpy_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.reduce用法及代碼示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.experimental_make_numpy_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.scope用法及代碼示例
- Python tf.compat.v1.distribute.experimental.ParameterServerStrategy.experimental_make_numpy_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy用法及代碼示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.reduce用法及代碼示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy用法及代碼示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.run用法及代碼示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.experimental_distribute_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.ParameterServerStrategy.experimental_distribute_dataset用法及代碼示例
- Python tf.compat.v1.distribute.experimental.MultiWorkerMirroredStrategy.scope用法及代碼示例
- Python tf.compat.v1.distribute.experimental.TPUStrategy.run用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.compat.v1.distribute.experimental.CentralStorageStrategy.make_input_fn_iterator。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。