当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.test.is_gpu_available用法及代码示例


返回 TensorFlow 是否可以访问 GPU。 (已弃用)

用法

tf.test.is_gpu_available(
    cuda_only=False, min_cuda_compute_capability=None
)

参数

  • cuda_only 将搜索限制在 CUDA GPU。
  • min_cuda_compute_capability 一个(主要,次要)对,指示所需的最低 CUDA 计算能力,如果没有要求,则为 None。

返回

  • 如果请求类型的 GPU 设备可用,则为真。

警告:此函数已弃用。它将在未来的版本中删除。更新说明:改用tf.config.list_physical_devices('GPU')

警告:如果安装了非 GPU 版本的包,该函数也将返回 False。使用 tf.test.is_built_with_cuda 来验证 TensorFlow 是否是在 CUDA 支持下构建的。

例如,

>>> gpu_available = tf.test.is_gpu_available()
>>> is_cuda_gpu_available = tf.test.is_gpu_available(cuda_only=True)
>>> is_cuda_gpu_min_3 = tf.test.is_gpu_available(True, (3,0))

请注意,关键字 arg 名称 "cuda_only" 具有误导性(因为无论 TF 是使用 CUDA 支持还是 ROCm 支持构建的,例程都会在 GPU 设备可用时返回 true。但是这里没有更改,因为

++ 将名称"cuda_only" 更改为更通用的名称会破坏向后兼容性

++ 添加等效的"rocm_only" 将需要实现检查构建类型。这反过来又需要对 CUDA 做同样的事情,因此可能会破坏向后兼容性

++ 添加新的"cuda_or_rocm_only" 不会破坏向后兼容性,但需要大多数(如果不是全部)调用者更新调用以使用"cuda_or_rocm_only" 而不是"cuda_only"

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.test.is_gpu_available。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。