用法
get_tpu_system_metadata()
返回 TPU 系统的元数据。
用户可以调用此方法来获取 TPU 系统的一些信息,例如内核总数、TPU 工作器数量和设备。例如:
resolver = tf.distribute.cluster_resolver.TPUClusterResolver(tpu='')
tpu_system_metadata = resolver.get_tpu_system_metadata()
num_hosts = tpu_system_metadata.num_hosts
相关用法
- Python tf.distribute.cluster_resolver.TPUClusterResolver.connect用法及代码示例
- Python tf.distribute.cluster_resolver.TPUClusterResolver用法及代码示例
- Python tf.distribute.cluster_resolver.TFConfigClusterResolver用法及代码示例
- Python tf.distribute.cluster_resolver.GCEClusterResolver用法及代码示例
- Python tf.distribute.cluster_resolver.SimpleClusterResolver用法及代码示例
- Python tf.distribute.cluster_resolver.UnionResolver用法及代码示例
- Python tf.distribute.cluster_resolver.SlurmClusterResolver用法及代码示例
- Python tf.distribute.cluster_resolver.KubernetesClusterResolver用法及代码示例
- Python tf.distribute.OneDeviceStrategy.experimental_distribute_values_from_function用法及代码示例
- Python tf.distribute.TPUStrategy用法及代码示例
- Python tf.distribute.experimental_set_strategy用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.gather用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy用法及代码示例
- Python tf.distribute.TPUStrategy.experimental_assign_to_logical_device用法及代码示例
- Python tf.distribute.NcclAllReduce用法及代码示例
- Python tf.distribute.OneDeviceStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.distribute.experimental.rpc.Server.create用法及代码示例
- Python tf.distribute.experimental.MultiWorkerMirroredStrategy.experimental_distribute_dataset用法及代码示例
- Python tf.distribute.OneDeviceStrategy.gather用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.distribute.cluster_resolver.TPUClusterResolver.get_tpu_system_metadata。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。