返回 TensorFlow 是否可以访问 GPU。 (已弃用)
用法
tf.test.is_gpu_available(
cuda_only=False, min_cuda_compute_capability=None
)
参数
-
cuda_only
将搜索限制在 CUDA GPU。 -
min_cuda_compute_capability
一个(主要,次要)对,指示所需的最低 CUDA 计算能力,如果没有要求,则为 None。
返回
- 如果请求类型的 GPU 设备可用,则为真。
警告:此函数已弃用。它将在未来的版本中删除。更新说明:改用tf.config.list_physical_devices('GPU')
。
警告:如果安装了非 GPU 版本的包,该函数也将返回 False。使用 tf.test.is_built_with_cuda
来验证 TensorFlow 是否是在 CUDA 支持下构建的。
例如,
>>> gpu_available = tf.test.is_gpu_available()
>>> is_cuda_gpu_available = tf.test.is_gpu_available(cuda_only=True)
>>> is_cuda_gpu_min_3 = tf.test.is_gpu_available(True, (3,0))
请注意,关键字 arg 名称 "cuda_only" 具有误导性(因为无论 TF 是使用 CUDA 支持还是 ROCm 支持构建的,例程都会在 GPU 设备可用时返回 true。但是这里没有更改,因为
++ 将名称"cuda_only" 更改为更通用的名称会破坏向后兼容性
++ 添加等效的"rocm_only" 将需要实现检查构建类型。这反过来又需要对 CUDA 做同样的事情,因此可能会破坏向后兼容性
++ 添加新的"cuda_or_rocm_only" 不会破坏向后兼容性,但需要大多数(如果不是全部)调用者更新调用以使用"cuda_or_rocm_only" 而不是"cuda_only"
相关用法
- Python tf.test.is_built_with_rocm用法及代码示例
- Python tf.test.is_built_with_cuda用法及代码示例
- Python tf.test.is_built_with_gpu_support用法及代码示例
- Python tf.test.is_built_with_xla用法及代码示例
- Python tf.test.TestCase.assertLogs用法及代码示例
- Python tf.test.TestCase.assertItemsEqual用法及代码示例
- Python tf.test.TestCase.assertWarns用法及代码示例
- Python tf.test.TestCase.create_tempfile用法及代码示例
- Python tf.test.TestCase.cached_session用法及代码示例
- Python tf.test.TestCase.captureWritesToStream用法及代码示例
- Python tf.test.create_local_cluster用法及代码示例
- Python tf.test.TestCase.assertCountEqual用法及代码示例
- Python tf.test.TestCase.assertRaises用法及代码示例
- Python tf.test.compute_gradient用法及代码示例
- Python tf.test.gpu_device_name用法及代码示例
- Python tf.test.TestCase.session用法及代码示例
- Python tf.test.TestCase.create_tempdir用法及代码示例
- Python tf.tensor_scatter_nd_max用法及代码示例
- Python tf.tensor_scatter_nd_sub用法及代码示例
- Python tf.tensor_scatter_nd_update用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.test.is_gpu_available。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。